Neues Tool Nightshade schützt Künstler vor gierigen KI-Firmen

Künstler haben es nicht immer leicht. Sie erschaffen Kunstwerke, um ihre Kreativität auszudrücken und die Welt zu bereichern. Doch leider gibt es da draußen auch einige gierige KI-Firmen, die keine Skrupel haben, diese Werke ohne Erlaubnis zu nutzen und für ihre eigenen Zwecke einzusetzen. Das kann zu einer echten Katastrophe führen, denn die KI-Modelle werden dadurch gestört und liefern resultierende Ergebnisse, die manchmal echt absurd sind.

Aber zum Glück gibt es jetzt das Tool Nightshade! Dieses geniale Werkzeug ermöglicht es Künstlern, unsichtbare Anpassungen an den Pixeln ihrer Kunstwerke vorzunehmen, bevor sie online veröffentlicht werden. Dadurch werden die Werke vor den gierigen Krallen der KI-Firmen geschützt. Die Künstler können ihre Kunstwerke in Ruhe hochladen, ohne sich Sorgen machen zu müssen, dass sie von anderen missbraucht werden.

Und das ist auch dringend nötig, denn es gibt bereits Klagen von Künstlern gegen Unternehmen wie OpenAI, Meta, Google und Stability AI. Diese Künstler behaupten, dass ihre Werke ohne Erlaubnis und ohne Entschädigung aus dem Internet genommen wurden. Das ist natürlich eine absolute Frechheit und muss aufhören!

Der Kopf hinter Nightshade ist Ben Zhao, ein Professor an der University of Chicago. Zusammen mit seinem Team möchte er eine effektive Abschreckung gegen die Missachtung des Urheberrechts und des geistigen Eigentums der Künstler schaffen. Sie wollen das Machtgleichgewicht zwischen den KI-Unternehmen und den Künstlern wiederherstellen. Eine noble Mission, wenn du mich fragst!

Aber das ist noch nicht alles. Zhao und sein Team haben auch ein weiteres Werkzeug namens Glaze entwickelt. Dieses erlaubt es den Künstlern, ihren individuellen Stil zu maskieren, um zu verhindern, dass er von den KI-Unternehmen ausgenutzt wird. Glaze funktioniert ähnlich wie Nightshade und macht subtile Veränderungen an den Pixeln von Bildern, die für das menschliche Auge unsichtbar sind, aber von maschinellen Lernmodellen als etwas anderes interpretiert werden.

Das Ziel von Zhao und seinem Team ist es, Nightshade in Glaze zu integrieren, um den Künstlern die Wahl zu geben, ob sie das Werkzeug zur Datenvergiftung verwenden möchten oder nicht. Zusätzlich soll das Tool als Open Source bereitgestellt werden, sodass andere Benutzer es nutzen und ihre eigenen Versionen erstellen können. Je mehr Menschen das Tool nutzen und ihre eigenen Versionen erstellen, desto leistungsfähiger wird es, so Zhao.

Die Gefahr besteht darin, dass die Technik der Datenvergiftung umso mehr Schaden anrichtet, je mehr vergiftete Bilder in die KI-Modelle eingeschleust werden. Das kann dazu führen, dass die Modelle verrückte Dinge lernen, wie zum Beispiel dass Bilder von Hüten Torten darstellen oder Bilder von Handtaschen plötzlich Toaster sind. Das kann lustig sein, aber für die KI-Entwickler ist es natürlich ein großes Problem.

Die Forscher haben den Angriff auf die aktuellsten Modelle von Stable Diffusion sowie auf ein von ihnen selbst trainiertes KI-Modell getestet. Bereits mit 50 manipulierten Hundebildern ergaben sich seltsame Ergebnisse – Kreaturen mit übermäßig vielen Gliedmaßen und cartoonartigen Gesichtern. Mit 300 manipulierten Proben kann ein Angreifer Stable Diffusion so beeinflussen, dass es Bilder von Hunden generiert, die das Aussehen von Katzen haben. Das ist natürlich ziemlich verrückt!

Aber Ben Zhao betont, dass Angreifer eine große Anzahl von Proben mit Nightshade bearbeiten müssten, um größeren und leistungsfähigeren Modellen tatsächlich Schaden zuzufügen. Denn diese werden auf Milliarden von Datenproben trainiert und lassen sich nicht so leicht von ein paar manipulierten Bildern beeindrucken.

Bisher gibt es noch keine effektiven Schutzmaßnahmen gegen diese Art von Angriffen. Aber Experten wie Gautam Kamath von der University of Waterloo sind positiv gestimmt und loben die Arbeit von Zhao und seinem Team. Sie betonen, dass die Schwachstellen bei diesen neuen Modellen nicht einfach verschwinden, sondern sogar noch schwerwiegender werden. Daher ist es höchste Zeit, an Verteidigungsmaßnahmen gegen solche Angriffe zu arbeiten.

In einer Welt, in der KI immer mächtiger wird und die Menschen zunehmend auf sie vertrauen, ist es wichtig, dass die Rechte der Künstler geschützt werden. Denn schließlich sind es ihre Werke, die uns inspirieren und zum Nachdenken anregen. Also Daumen hoch für Nightshade und Glaze! Mögen sie den Künstlern helfen, ihre Werke zu schützen und weiterhin großartige Kunstwerke zu erschaffen.

Schlagwörter: Nightshade + Glaze + Vergiftung von Trainingsdaten

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 25. Oktober 2023