OpenAI hat kürzlich einen neuen Trick aus dem Hut gezaubert, um herauszufinden, ob ein Bild mit ihrem DALL-E AI-Bildgenerator erstellt wurde. Aber sie haben nicht nur das gemacht, sie haben auch gleich noch neue Wasserzeichenmethoden eingeführt, um den generierten Inhalt deutlicher zu markieren. Das ist doch mal eine clevere Idee!
In einem Blogbeitrag verkündete OpenAI stolz, dass sie innovative Methoden entwickelt haben, um die Herkunft von Inhalten zu verfolgen und festzustellen, ob diese von KI generiert wurden. Eine dieser Methoden beinhaltet einen Bilderkennungsklassifikator, der KI nutzt, um festzustellen, ob ein Foto von DALL-E 3 erstellt wurde. Das ist wie ein Detektiv, der den Täter anhand seiner Fingerabdrücke erkennt, nur dass es hier um Bilder geht. Ziemlich cool, oder?
Aber OpenAI hat nicht nur an die Bilder gedacht, nein, sie haben auch ein manipulationssicheres Wasserzeichen eingeführt. Das bedeutet, dass sie unsichtbare Signale verwenden, um Inhalte wie Audio zu markieren. Also, wenn jemand versucht, den generierten Inhalt zu manipulieren, wird das Wasserzeichen es aufdecken. Eine Art digitales Schimpansen-Tattoo, das auf dem Bild versteckt ist. Fantastisch!
Der Bilderkennungsklassifikator prognostiziert mit einer Genauigkeit von etwa 98 Prozent, ob ein Bild von DALL-E 3 erstellt wurde. Das ist beeindruckend! Und das Beste daran ist, dass der Klassifikator seine Funktion auch dann erfüllt, wenn das Bild beschnitten, komprimiert oder die Sättigung verändert wurde. Er ist wie ein Superheld, der sich von nichts aufhalten lässt!
Aber hier kommt die schlechte Nachricht: Der Klassifikator hat Schwierigkeiten, Inhalte von anderen KI-Modellen zu erkennen. Zum Beispiel markiert er nur 5 bis 10 Prozent der Bilder, die von anderen Bildgeneratoren wie Midjourney erstellt wurden. Na ja, niemand ist perfekt, oder?
Um sicherzustellen, dass die Informationen über die Herkunft der Bilder nicht verloren gehen, hat OpenAI in der Vergangenheit bereits Metadaten von Bildern hinzugefügt. Diese Metadaten enthalten Informationen darüber, wem das Bild gehört und wie es erstellt wurde. OpenAI ist Mitglied der Coalition of Content Provenance and Authority (C2PA), zusammen mit Unternehmen wie Microsoft und Adobe. Und jetzt haben sie sogar den Lenkungsausschuss der C2PA betreten. Das ist wie ein VIP-Pass für die Welt der Inhaltsreferenzen!
Aber damit nicht genug, OpenAI hat auch Wasserzeichen zu Clips aus ihrer Text-to-Speech-Plattform Voice Engine hinzugefügt. Das ist wie eine zusätzliche Sicherheitsmaßnahme, um sicherzustellen, dass der generierte Inhalt nicht manipuliert wird. Es ist, als ob sie einen Riesenkuchen mit einem „Bitte nicht anfassen“ Schild darauf haben. Wer könnte da widerstehen?
Sowohl der Bilderkennungsklassifikator als auch das Audio-Wasserzeichensignal befinden sich noch in der Entwicklung. OpenAI bittet die Benutzer um Feedback, um die Effektivität dieser neuen Funktionen zu testen. Forscher und gemeinnützige Journalismusgruppen haben sogar die Möglichkeit, den Bilderkennungsklassifikator auf OpenAIs Forschungszugriffsplattform zu testen. Das ist wie ein offener Beta-Test, bei dem die Benutzer mithelfen können, die KI noch schlauer zu machen.
Es ist wirklich beeindruckend, wie OpenAI sich kontinuierlich bemüht, KI-generierte Inhalte zu erkennen. Aber manchmal muss man auch akzeptieren, dass nicht alles perfekt funktioniert. Im Jahr 2023 musste OpenAI ein Programm beenden, das KI-geschriebenen Text identifizieren sollte, weil der Textklassifikator der KI einfach nicht genau genug war. Schade, aber manchmal muss man eben einen Schritt zurückgehen, um zwei Schritte nach vorne machen zu können.
Schlagwörter: OpenAI + KI + DALL-E
Wie bewerten Sie den Schreibstil des Artikels?
