Ja, ja, Google, jetzt habt ihr euch aber mal wieder in die Nesseln gesetzt! In einem Blogbeitrag am Freitag hat das Unternehmen eine Stellungnahme zu den unangenehmen und fehlerhaften Bildern abgegeben, die von ihrer Gemini AI-Software erstellt wurden. Was war denn da los?
Prabhakar Raghavan, der Senior Vice President von Google, gab zu, dass es aufgrund von Abstimmungsproblemen in ihrem Modell zu ungenauen historischen Bildern gekommen ist. Das klingt ja schon mal nach einer ordentlichen Panne. Die New York Times und andere Medien haben Google also dabei erwischt, Bilder zu generieren, die rassisch vielfältige Nazis und die Gründerväter der USA darstellen. Ups!
Raghavan erwähnt in dem Blogbeitrag, dass die Abstimmung, um sicherzustellen, dass Gemini eine breite Palette von Personen zeigt, Fälle übersehen hat, in denen eine solche Vielfalt eindeutig nicht angezeigt werden sollte. Also, liebe KI, ein bisschen mehr Fingerspitzengefühl bitte!
Aber das war noch nicht alles. Das Modell wurde im Verlauf der Zeit viel vorsichtiger als beabsichtigt und hat bestimmte Anfragen fälschlicherweise als sensibel interpretiert. Das führte dazu, dass es einige sehr harmlose Anfragen komplett abgelehnt hat. Wer hätte gedacht, dass eine KI so empfindlich sein kann?
Die Ergebnisse von Gemini haben also zu einer Überkompensation geführt, ähnlich wie bei den Bildern der rassisch vielfältigen Nazis. Das ist ja fast schon komisch, wenn es nicht so ernst wäre. Und dann hat die KI auch noch zu vorsichtig bzw. aggressiv reagiert und sich geweigert, spezifische Bilder von einer Person schwarzer oder weißer Hautfarbe zu generieren. Das ist doch irgendwie diskriminierend, oder?
In dem Blogbeitrag entschuldigt sich Raghavan dafür, dass die Funktion von Google nicht wie gewünscht funktioniert hat. Ach, wirklich? Er betont zudem, dass Google möchte, dass Gemini für alle reibungslos funktioniert und das bedeutet, dass bei der Suche nach Bildern verschiedene Arten von Menschen, einschließlich verschiedener Ethnien, dargestellt werden sollten. Ja, das wäre schon wünschenswert.
Aber hey, liebe Gemini AI, wenn man dich nach Bildern einer spezifischen Personengruppe fragt, wie beispielsweise einem schwarzen Lehrer in einem Klassenzimmer oder einem weißen Tierarzt mit einem Hund, dann sollte man definitiv eine präzise Antwort erhalten. Das ist ja wohl das Mindeste!
Am 22. Februar hat Google dann auch endlich die Möglichkeit für Benutzer eingestellt, mit Hilfe des Gemini AI-Tools Bilder von Personen zu erstellen. Nur wenige Wochen nach dem Start der Bildgenerierung. Das nenne ich mal eine schnelle Reaktion!
Raghavan erklärt, dass Google die Bildgenerierungsfähigkeiten von Gemini AI weiterhin testen und deutlich verbessern wird, bevor es erneut aktiviert wird. Na, dann bin ich mal gespannt, ob wir uns in Zukunft auf präzisere und weniger unangenehme Bilder freuen können.
Aber hey, Halluzinationen sind eine bekannte Herausforderung bei allen großen Sprachmodellen, wie Raghavan betont. Es gibt Situationen, in denen die KI einfach Dinge falsch interpretiert. Das ist wohl der Preis, den wir für unsere hochmoderne Technologie zahlen müssen.
Na dann, Google, ran an die Arbeit! Wir wollen doch alle, dass Gemini in Zukunft reibungslos funktioniert und uns nicht rassisch vielfältige Nazis präsentiert. Das ist ja schon fast so absurd wie ein Einhorn auf dem Mars. Aber wer weiß, vielleicht schafft ihr das ja noch. Viel Erfolg!
Schlagwörter: Gemini AI-Tool + Google + Prabhakar Raghavan
Wie bewerten Sie den Schreibstil des Artikels?