Der Microsoft 365 Copilot, ein KI-Assistent für die weitverbreiteten Office-Anwendungen, stellte über einen langen Zeitraum hinweg ein erhebliches Sicherheitsrisiko dar. Nutzer dieser Firmensoftware waren potenziell gefährdet, da eine kritische Schwachstelle es Angreifern ermöglichte, sensible Informationen durch geschickt formulierte E-Mails aus dem System zu extrahieren. Ohne jeglichen menschlichen Eingriff, ohne Mausklick oder Handlungsbedarf seitens der Benutzer, konnte die KI durch reine Analyse und Verarbeitung von E-Mails vertrauliche Daten preisgeben. Der Copilot, basierend auf der leistungsstarken Technologie GPT-4 von OpenAI, agierte selbstständig im Netzwerk des Unternehmens und hatte somit Zugriff auf potenziell sensible Firmendaten aus Anwendungen wie Word, Excel, PowerPoint, Outlook und Teams. Diese Tatsache bot Angreifern eine einzigartige Möglichkeit zur Ausbeutung: Indem sie speziell formulierte E-Mails schickten, konnten sie die KI dazu veranlassen, diese zu lesen und zu interpretieren. Im Gegensatz zu klassischen Phishing-Angriffen, die auf den Mausklick des Opfers angewiesen sind, handelte es sich hier um eine subtile Form der Datenextraktion, die durch die autonome Funktionsweise der KI ermöglicht wurde. Glücklicherweise hat Microsoft dieses Problem mittlerweile behoben und das Sicherheitsrisiko minimiert.
Schlagwörter: Microsoft + KI + GPT-4
Wie bewerten Sie den Schreibstil des Artikels?
																											