Language Models with Limited Memory (LLMs): Die unerwarteten Helden im Kampf gegen Deepfakes

Deepfakes sind schon seit einiger Zeit ein heißes Thema, und es scheint, dass es immer schwieriger wird, zwischen echten und manipulierten Videos oder Bildern zu unterscheiden. Aber zum Glück gibt es kluge Köpfe an der University at Buffalo, die sich mit diesem Problem beschäftigen und nach Lösungen suchen.

Die Forscher haben festgestellt, dass spezielle Software zur Erkennung von Deepfakes, im Vergleich zu Language Models with Limited Memory (LLMs), keine signifikant bessere Leistung erbringt. LLMs wie ChatGPT von OpenAI und Gemini von Google wurden verwendet, um Bilder aufzudecken, die mit Hilfe von Künstlicher Intelligenz (KI) erstellt wurden. Aber trotz ihrer beeindruckenden Fähigkeiten bleiben sie in Sachen Deepfake-Erkennung hinter dedizierten Algorithmen zurück.

Was macht LLMs dann so besonders? Nun, sie haben die Fähigkeit, ihre Ergebnisse auf eine für Menschen verständliche Weise zu erklären. Sie können zum Beispiel feststellen, dass ein Schatten falsch platziert ist oder dass die Ohrringe nicht zum Gesicht passen. Das ist ziemlich beeindruckend, vor allem wenn man bedenkt, dass die LLMs nicht explizit für die Erkennung von Deepfakes entwickelt oder trainiert wurden.

ChatGPT und andere LLMs wurden mit einer riesigen Menge an Textdaten aus dem Internet trainiert, insgesamt etwa 300 Milliarden Wörter. Durch dieses Training sind sie in der Lage, statistische Muster und Beziehungen zwischen Wörtern zu erkennen und Antworten zu generieren. Und ja, sie können auch Bilder analysieren.

Die Forscher haben LLMs und tausende authentische sowie manipulierte Bilder getestet. In 79,5 Prozent der Fälle erzielte ChatGPT die richtigen Ergebnisse. Und das Beste daran ist, dass die Software in verständlicher Sprache erklären kann, wie sie die Manipulationen erkannt hat.

Ein Beispiel: Bei einem KI-generierten Foto eines Mannes mit Brille erkannte ChatGPT, dass die Haare auf der linken Seite des Bildes leicht unscharf waren und der Übergang zwischen der Person und dem Hintergrund abrupt war. Dadurch fehlte dem Bild die nötige Tiefe. Ziemlich beeindruckend, oder?

Die Forscher sind der Meinung, dass LLMs, obwohl sie nicht speziell für die Deepfake-Erkennung entwickelt wurden, aufgrund ihrer Fähigkeit, in natürlicher Sprache zu arbeiten, zu einem praktischen Werkzeug werden könnten. Sie können auf einfache Weise ihre Ergebnisse erklären und so helfen, Manipulationen aufzudecken.

Natürlich ist die Technologie nicht perfekt und es gibt noch viel Raum für Verbesserungen. Aber es ist ein Schritt in die richtige Richtung und zeigt, dass wir auf dem Weg sind, Deepfakes besser zu erkennen und zu bekämpfen. Hoffentlich werden wir in Zukunft noch effektivere Werkzeuge haben, um uns vor solchen Manipulationen zu schützen.

Schlagwörter: ChatGPT + University + Buffalo

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 4. Juli 2024