Die KI hilft beim Faktencheck: Neue Ansätze gegen Halluzinationen in Sprachmodellen

Große Sprachmodelle (LLMs) wie ChatGPT faszinieren mit ihrer Fähigkeit, kohärente Texte zu generieren. Allerdings neigen sie auch dazu, sogenannte Halluzinationen hervorzubringen – also Informationen zu liefern, die nicht auf tatsächlichen Fakten beruhen, obwohl ihnen die nötigen Daten fehlen. Um dieses Problem anzugehen, entstehen innovative Projekte, die KI gezielt zur Unterstützung menschlicher Faktenchecker einbeziehen.

Im Gegensatz zu einem klassischen Faktencheck, der scheitert, wenn das Modell selbst die fehlende Informationsbasis nicht erkennt, fokussieren diese neuen Ansätze auf den Vergleich der verwendeten Quellen mit dem generierten Textoutput. Entdecken sie Ungereimtheiten – also zitierte Informationen, die nicht im tatsächlichen Quellentext vorkommen oder Falschdarstellungen von Fakten – wird dies als Alarmsignal erkannt.

MITs Source-Linked Output : Ein Beispiel hierfür ist das Projekt Source-Linked Output der MIT-Forscher. Dieses System versieht Fakten direkt im Ausgabetext mit Verweisen auf ihre Quellen – konkret auf Textstellen in Dokumenten oder Datenbanken. Demnächst wird es genügen, mit einem Mauszeiger über hervorgehobene Stellen zu fahren, um die verwendete Datenquelle zu überprüfen, anstatt mühsam ganze Dokumente durchzulesen. Nicht hervorgehobene Passagen signalisieren dem Nutzer hingegen Ausdrücke, die besondere Aufmerksamkeit für eine Verifikation erfordern.

Second Opinion: Fokus auf Textzusammenfassungen : Ein weiteres Beispiel ist Second Opinion, ein Open-Source-Projekt des deutschen AI for Media Networks. Hier steht der Vergleich von Langtexten mit ihren Kurzfassungen im Mittelpunkt. Abweichungen werden farblich markiert; ein Klick auf die Passage liefert eine detaillierte Erklärung der Diskrepanz. Diese Methode erleichtert signifikant die Kontrolle, da Verfälschungen in Zusammenfassungen direkt sichtbar werden.

Es ist wichtig zu betonen: Weder Source-Linked Output noch Second Opinion ersetzen den menschlichen Faktencheck vollständig. Fehler in der Ausgangsquelle können in die Zusammenfassung übernommen und unentdeckt bleiben. Dennoch bieten beide Systeme effektive Werkzeuge, um die Arbeit von Faktencheckern zu unterstützen, Unstimmigkeiten schneller zu identifizieren und so die Qualität und Zuverlässigkeit von generierten Inhalten deutlich zu verbessern.

Schlagwörter: KI + MIT + AI

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 23. Oktober 2024