Microsofts KI-Bildgenerator Copilot Designer: Sicherheitsbedenken und Fälschungen lösen Kontroversen aus
Microsofts KI-Bildgenerator, der als Copilot Designer bekannt ist, hat in den letzten Wochen für Kontroversen gesorgt. Ein Mitarbeiter von Microsoft, Shane Jones, hat Bedenken hinsichtlich der Sicherheit des Tools geäußert und diese der Federal Trade Commission (FTC) mitgeteilt.
Laut einem Bericht von CNBC hat Jones die FTC darüber informiert, dass Microsoft trotz mehrfacher Warnungen sich geweigert hat, den Copilot Designer abzuschalten. Bei Sicherheits- und Mängeltests stellte Jones fest, dass das Tool in der Lage ist, schädliche Bilder zu generieren, die äußerst beunruhigend sind.
Unter anderem wurden Bilder von Dämonen, Monstern, Begriffen im Zusammenhang mit dem Recht auf Abtreibung, Teenagern mit Sturmgewehren, sexualisierten Szenen mit gewalttätigen Frauen und Minderjährigen beim Alkohol- und Drogenkonsum erzeugt. Besonders schockierend ist, dass das Tool auch Bilder von Disney-Figuren wie Elsa aus “Frozen” in Szenen im Gazastreifen vor zerstörten Gebäuden und “Free Gaza”-Schildern erstellt hat. Es gab sogar Bilder von Elsa, die eine Uniform der Israelischen Verteidigungsstreitkräfte trägt und einen Schild mit der Flagge Israels hält.
Microsoft-CEO Satya Nadella hat sich zu den Vorfällen geäußert und die expliziten KI-Fälschungen von Taylor Swift als alarmierend und schrecklich bezeichnet. Jones versuchte seit Dezember letzten Jahres, Microsoft vor dem Modell DALLE-3 zu warnen, das vom Copilot Designer verwendet wird. Er veröffentlichte einen offenen Brief auf LinkedIn, in dem er die Probleme ansprach. Allerdings wurde er angeblich von Microsofts Rechtsabteilung kontaktiert und aufgefordert, den Beitrag zu entfernen, was er auch tat.
In seinem Brief schrieb Jones: “In den letzten drei Monaten habe ich Microsoft wiederholt aufgefordert, den Copilot Designer aus der öffentlichen Nutzung zu entfernen, bis bessere Sicherheitsvorkehrungen getroffen werden können. Sie haben erneut versäumt, diese Anpassungen vorzunehmen und vermarkten das Produkt weiterhin mit dem Slogan ‘Jeder. Überall.'”
Microsoft hat bisher nicht auf eine Anfrage von CNBC nach einem Kommentar reagiert. Im Januar äußerte Jones seine Bedenken gegenüber einer Gruppe von US-Senatoren, nachdem der Copilot Designer explizite Bilder von Taylor Swift generiert hatte, die sich schnell verbreiteten. Satya Nadella betonte, dass das Unternehmen daran arbeite, zusätzliche Sicherheitsmaßnahmen zu implementieren.
Vor kurzem hat auch Google seinen eigenen KI-Bildgenerator vorübergehend deaktiviert, nachdem Benutzer festgestellt hatten, dass er Bilder von Nazis mit rassisch vielfältigem Hintergrund und anderen historisch ungenauen Bildern erstellte. Es scheint, dass die Sicherheit und Kontrolle solcher KI-Systeme weiterhin Herausforderungen darstellen und Unternehmen wie Microsoft und Google vor große Aufgaben stellen.
Schlagwörter: Microsoft + Copilot + CNBC
Wie bewerten Sie den Schreibstil des Artikels?