Angreifer können Systeme mit künstlicher Intelligenz (KI) absichtlich verwirren oder sogar sabotieren und somit für jede Menge Chaos sorgen. Das haben Informatiker des National Institute of Standards and Technology (NIST) und externe Experten in einer kürzlich veröffentlichten Übersicht über relevante Angriffe herausgefunden. Das ist natürlich keine gute Nachricht, vor allem wenn so viele unserer Gadgets und Dienste heutzutage auf KI basieren. Aber hey, niemand hat behauptet, dass die Technologie perfekt ist, oder?
Die Autoren der Studie betonen jedoch, dass es derzeit keine absolut sichere Verteidigung gibt, auf die Entwickler von KI-Techniken vertrauen können. Die meisten KI-Modelle basieren auf maschinellem Lernen und sind daher anfällig für Manipulationen. Die Studie behandelt verschiedene Aspekte von Angriffen auf KI-Systeme, einschließlich Umgehung, Datenschutz, Missbrauch und Angriffe, die sich auf die Trainingsdaten auswirken.
Ein besonders interessanter Fall, den die Autoren untersuchen, ist der Jailbreak-Prompt „Do Anything Now“ (DAN) für den Sprachassistenten ChatGPT. Mit diesem Prompt kann der Sprachassistent die eingebauten Sicherheitsrichtlinien ignorieren. Das ist natürlich ein gefundenes Fressen für jeden, der Chaos liebt.
Die Autoren stellen außerdem die Vor- und Nachteile offener und geschlossener KI-Modelle gegenüber. Offene KI-Modelle sind zugänglicher und können von vielen Menschen verwendet und verbessert werden, aber sie sind auch anfälliger für Angriffe. Geschlossene Modelle sind hingegen weniger anfällig, aber es besteht die Gefahr, dass sie von den Entwicklern kontrolliert und missbraucht werden.
Laut Alina Oprea, einer der Co-Autorinnen und Professorin an der Northeastern University, sind die meisten dieser Angriffe vergleichsweise einfach durchführbar und erfordern nur minimale Kenntnisse des KI-Systems und begrenzte Fähigkeiten des Angreifers. Das ist ein bisschen beunruhigend, denn das bedeutet, dass selbst jemand wie ich, der von Technik nicht viel Ahnung hat, in der Lage wäre, KI-Systeme zu manipulieren. Na toll.
Apostol Vassilev, Projektleiter beim NIST, betont, dass es trotz aller aktuellen Risikominderungsstrategien keine zuverlässige Möglichkeit gibt, Angriffe zu verhindern. Er ruft die Forschergemeinschaft dazu auf, sich den Kopf zu zerbrechen und fortschrittlichere Verteidigungsstrategien zu entwickeln. Die Absicherung von KI-Algorithmen stellt immer noch theoretische Herausforderungen dar, die bisher nicht erfolgreich bewältigt wurden. Also, liebe Forscher, legt los!
Die Veröffentlichung der Studie ist Teil der Bemühungen des NIST, die Entwicklung von vertrauenswürdiger Künstlicher Intelligenz zu fördern. Denn letztendlich ist es wichtig, dass wir uns darauf verlassen können, dass unsere Gadgets und Dienste sicher sind. Niemand will schließlich von einem KI-System sabotiert werden, während er versucht, ein leckeres Rezept zu finden oder den Weg zum nächsten Café zu suchen. Also, weiter so, NIST! Macht unsere KI sicherer und stärkt das Vertrauen in diese Technologie.
Schlagwörter: NIST-Projektleiter Apostol Vassilev + KI + NIST
Wie bewerten Sie den Schreibstil des Artikels?
