Der schwierige Kampf gegen Halluzinationen

Forschungsgruppen weltweit arbeiten daran, Halluzinationen in KI-Systemen zu minimieren. Laut einem Bericht der MIT Technology Review ist es bisher jedoch nur teilweise gelungen, Halluzinationen vollständig zu verhindern. Die genauen Mechanismen, die zu Halluzinationen in großen Sprachmodellen führen, sind noch nicht vollständig verstanden.

Die Definition des Problems ist bereits komplex: KI-Halluzinationen können internistisch oder extrinsisch sein und hängen von der spezifischen Aufgabe und dem Kontext ab. Es wird auch darüber diskutiert, ob ein Modell auf vorab erlerntes Wissen zurückgreifen soll oder im Einklang mit dem aktuellen Kontext stehen soll. Dies kann zu Halluzinationen führen, die faktische Fehler, nicht überprüfbare Informationen oder unplausible Szenarien enthalten.

Bei einigen Arten von Halluzinationen ist es möglich, technische Maßnahmen zu ergreifen. Eine Technik namens Retrieval-Augmented-Generation (RAG) wird verwendet, um faktische Halluzinationen einzuschränken. Dabei wird eine externe Wissenskomponente hinzugefügt, die relevante Informationen aus der Anfrage mit vorab trainiertem Wissen und externen Quellen abgleicht. Dadurch werden die Antworten zuverlässiger, insbesondere in Bezug auf aktuelle Ereignisse oder Dialoge. Eine Überprüfung des externen Wissens bleibt jedoch wünschenswert.

Der Einsatz von externen Quellen ist jedoch nur effektiv, wenn diese zuverlässig sind. Die Verwendung von Wikipedia als Quelle ist weit verbreitet, aber die Genauigkeit der Fakten variiert stark. Zudem fehlt es vielen Sprachmodellen an einem wirklichen Verständnis für die Bedeutung von Aussagen. Die mathematische Funktion, die die formale Ähnlichkeit von Aussagen berechnet, kann keine endgültige Einordnung als wahr oder falsch liefern.

Ein weiteres Problem ist die Intransparenz vieler Modelle. ChatGPT wird oft als undurchsichtig betrachtet, was die kritische Analyse erschwert. Offene Modelle bieten mehr Möglichkeiten zur Verbesserung, während Hersteller proprietärer Modelle wie ChatGPT die Hauptverantwortung tragen.

Der vollständige Artikel ist in der MIT Technology Review verfügbar.

Schlagwörter: ChatGPT + MIT + Patrick Schramowski

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 21. Februar 2024