News Microsoft 365 Copilot: Bug ließ KI-Assistent vertrauliche Mails zusammenfassen

Hatte MS nicht gesagt, dass ein erheblicher teil des Codes inzwischen von KI geschrieben wird ... Das konnte doch gar kein Mensch mehr wissen, denn ein Mensch war vielleicht nie damit befasst hat.
Kann man da nicht einen DSGVO Verstoß geltend machen ... Die EU könnte doch 5% des Jahresumsatzes von MS sicherlich ganz gut verwenden :D
 
DonDonat schrieb:
Deswegen sollte man als Nutzer "KI" in allem was man hat ablehnen: die Daten fließen am Ende immer zu Mega-Corps, die damit nichts machen, was dem Daten-Lasser helfen würde und gleichzeitig auch noch immer mehr Risiken für die Security der Nutzer darstellt.

Aber wahrscheinlich wird es hier wie immer erst mal eine gigantische Panne geben müssen, wo Mrd. User-Daten "abhanden kommen", bis der Gesetzgeber Strafen für Firmen vorsieht, die trotz besserem Wissen es nicht besser machen...

Dann kommt die gigantische Panne, die EU verhaengt Strafen.
Die Amis/US Konzerne hassen uns dafuer.
Dann manipulieren sie uns und unsere Politiker via Lobby und Marketing, Social Media und KI.
Und wir hassen uns selber.
Oder abonnieren und nutzen die Scheisse.

Also bringt die Panne gar nichts.
 
  • Gefällt mir
Reaktionen: Col.Maybourne und fox40phil
Microsoft ist ein Code Problem...
 
Der einzige „Bug“ ist, dass er bemerkt wurde – das Programm selbst funktioniert einwandfrei.
 
  • Gefällt mir
Reaktionen: Restart001
Laut Microsoft verursachte der Fehler keine Datenlecks.
Natürlich nicht, die Daten landeten da, wo sie sollten.........
Und natürlich war das ein KI Fhmegler, bei MS gibt es keine menschlichdn Programmier oder QM mehr ;)
slice90 schrieb:
Deshalb habe ich letztens damit "github.com/zoicware/RemoveWindowsAI" den ganzen Kram hart entfernt
Besser noch, format c: gefolgt von install.sh
Rein bildlich gesprochen ;)
 
Ich vermute, der Bug ist eher, dass das Ganze öffentlich geworden ist :rolleyes:
 
Hatsune_Miku schrieb:
Ich bin der meinung das man geräte mit sensiblen daten komplett offline nutzen sollte, da ist das risiko am geringsten.

Commander Adama reagierte auf deinen Beitrag mit "gefällt mir". ^^
 
Niemand habe Zugang zu Informationen erhalten, für die er nicht ohnehin autorisiert war,
Außer Microsoft durch Copilot versteht sich. Ich verstehe einfach nicht wie man da freiwillig mitmacht.
Ergänzung ()

slice90 schrieb:
Deshalb habe ich letztens damit "github.com/zoicware/RemoveWindowsAI"
Yay random github Scripte jetzt auch für Windows...
 
Gibt’s hier auch eine Person im Kommentarbereich der sich mit m365, Copilot und Security und Compliace auskennt und nicht einfach nur Anti KI und Microsoft ist?
Hier geht es um einen Bug der sich auf die DLP Policy und Sensitvitiy Labels bezieht. Hier konnte man als Admin Labels so konfigurieren, dass Inhalte, die mit dem Label versehen werden und auf die man selbst Zugriff hat trotzdem nicht verarbeitet wurden aka „Copilot for Work, fasse mir die Inhalte meines Word Dokuments in meinem OneDrive zusammen“. Sowas konnte mit der entsprechenden Konfiguration verhindert werden. Der Bug bezieht sich nun auf Mails im eigenen Postausgang und hier konnte Copilot diese Inhalte trotz Label verarbeiten. Hier sind keine Daten abgeflossen oder gar auf Dateien anderer zugegriffen, daher nur ein Bug beim Zugriff auf die eigenen Unternehmensdaten auf die man vorher auch Zugriff hatte.
Thats it. Blöder Bug aber kein Weltuntergang.
 
Zurück
Oben