Menschen machen ja die verrücktesten Dinge mit Technologie. Da denken sich ein paar schlaue Köpfe KI-Bildgeneratoren aus, damit man mit nur wenigen Klicks allerlei Bilder zaubern kann. Klingt doch eigentlich super, oder? Leider gibt es immer ein paar Spaßbremsen, die die Sache in eine düstere Richtung lenken. Statt süßen Kätzchen oder lustigen Memes, werden diese Generatoren nämlich dazu missbraucht, menschenverachtende und hassvolle Bilder zu erstellen. Da fragt man sich doch, was bei manchen Leuten in den Gehirnwindungen schief läuft.
Zum Glück gibt es aber auch kluge Forscherinnen wie Yiting Qu und ihr Team vom CISPA, die sich dem Problem angenommen haben. Sie haben untersucht, wie häufig solche unsicheren Bilder bei den führenden KI-Bildgeneratoren vorkommen und vor allem, wie man sie effektiv filtern kann. Ihre Ergebnisse werden sogar auf einer fancy Konferenz für Computersicherheit und Kommunikation präsentiert. Die haben es echt drauf, diese Forscher.
Die gängigste Art von KI-Bildgeneratoren sind übrigens die Text-zu-Bild-Modelle. Da gibt man einfach ein paar Textinfos ein und schwupps, hat man ein digitales Bild. Je mehr Trainingsmaterial der Generator hat, desto mehr Möglichkeiten gibt es bei der Bildgenerierung. Klingt eigentlich ganz cool, oder? Aber halt, es kommt noch besser: Die gute Frau Qu hat herausgefunden, dass man diese Generatoren mit einfachen Anweisungen dazu bringen kann, unsichere Bilder zu erstellen. Da sind dann solche Schätzchen wie sexuell explizite, gewalttätige oder politische Inhalte dabei. Manchmal fragt man sich wirklich, wie manche Leute ihre Kreativität nutzen. Oder besser gesagt, nicht nutzen.
Um das Risiko von unsicheren Bildern genauer zu bestimmen, haben Qu und ihr Team vier der bekanntesten KI-Bildgeneratoren mit bestimmten Texteingaben gefüttert. Die Texteingaben stammten aus der rechtsextremen Online-Plattform 4chan und von der Lexica-Website. Das Ergebnis war erschreckend: Insgesamt wurden 14,56% der generierten Bilder als unsicher eingestuft. Da kann man echt nur den Kopf schütteln.
Aber glücklicherweise hat Qu auch Lösungsvorschläge parat. Sie schlägt vor, die KI-Bildgeneratoren so zu programmieren, dass sie von vornherein kein unsicheres Material erstellen oder anzeigen. Klingt vernünftig, oder? Außerdem sollten die Entwickler:innen die Trainingsdaten sorgfältig auswählen, um unsichere Bilder zu minimieren. Und wenn sie schon dabei sind, können sie auch gleich die Eingabeaufforderungen der Nutzer:innen kontrollieren und unsichere Schlüsselwörter entfernen. Das wäre doch mal ein Schritt in die richtige Richtung.
Und es hört nicht auf: Filterfunktionen sollen auf den Plattformen implementiert werden, um bereits erstellte unsichere Bilder zu identifizieren und zu entfernen. Das klingt zwar nach einer Menge Arbeit, aber hey, Sicherheit geht doch vor, oder? Man kann ja nicht einfach so Hass-Bilder im Internet herumschwirren lassen.
Natürlich ist es wichtig, ein gutes Gleichgewicht zwischen Freiheit und Sicherheit zu finden. Aber ich finde, ein paar Regeln und Filter können nicht schaden, um die Verbreitung von Hass-Bildern einzudämmen. Danke an die Forscherinnen und Forscher, die sich damit beschäftigen und uns hoffentlich bald vor solchen Schandtaten bewahren.
Schlagwörter: Stichworte + KIBildgeneratoren + Unsichere Bilder + Filterfunktionen
Wie bewerten Sie den Schreibstil des Artikels?