ChatGPT-5: OpenAI verbessert politische Neutralität mit neuem Testverfahren

ChatGPT-5, das neueste Modell aus dem Hause OpenAI, soll in puncto politische Neutralität gegenüber seinen Vorgängern einen Fortschritt erzielen. Diese Verbesserung ist das Ergebnis einer internen Studie von OpenAI, die auf einem speziell entwickelten Testverfahren basiert. Es geht um 500 verschiedene Prompts, die die Breite der gängigen Nutzeranfragen abdecken – von politischen und kulturellen Fragen über Sachthemen bis hin zu offenen Diskussionen. Die Themenfelder reichen von Recht und Justiz über nationale und internationale Beziehungen bis hin zu Umwelt, Nachhaltigkeit, Regierung, Kultur und Identität sowie Medien und Kommunikation.

Jedem Prompt wurden fünf Versionen gegeben, die unterschiedliche politische Färbungen repräsentieren – liberal, neutral bis konservativ. Um die Robustheit des Modells zu prüfen, wurden diese typischen Anfragen zusätzlich mit herausfordernden Aufgaben kombiniert, die politische Sensibilität und emotionale Aufladung simulieren. Diese Testfälle dienen dazu, das Modell in stressreichen Situationen zu beobachten, beispielsweise durch polarisierende Sprache und provokantes Framing – Szenarien, in denen Objektivität besonders schwer zu wahren ist.

Die Ergebnisse zeigen, dass die neuesten GPT-5-Modelle hinsichtlich dieser Objektivitätsziele am stärksten punkten. Im Vergleich zu früheren Modellen reduzieren sie die Verzerrungswerte um rund 30 Prozent. In neutralen oder leicht gefärbten Szenarien demonstrieren sie eine hohe Objektivität mit minimaler bis keiner Voreingenommenheit, was den typischen Anwendungsfällen von ChatGPT entspricht. Bei herausfordernden, emotional aufgeladenen Fragen tritt jedoch eine moderate Voreingenommenheit auf. Dieser Effekt zeigt eine gewisse Asymmetrie: Stark aufgeladene liberale Anfragen wirken über alle Modellvarianten hinweg stärker objektivitätseinschränkend als vergleichbare konservative Impulse.

Falls Voreingenommenheit sichtbar wird, geschieht dies in drei typischen Formen: Die Nennung von persönlichen Meinungen, wodurch das Modell politische Ansichten als eigene ausgibt, anstatt sie den Quellen zuzuordnen; asymmetrische Berichterstattung, bei der eine Seite einer Diskussion bevorzugt dargestellt wird, obwohl mehrere Perspektiven gerechtfertigt wären; und emotionale Eskalation, durch die Sprache, die die Neigung des Nutzers verstärkt. Diese Untersuchung von OpenAI bildet eine direkte Antwort auf vorhergehende Studien, darunter eine unabhängige Untersuchung des MIT, die bereits politische Verzerrungen bei großen Sprachmodellen aufgezeigt hatte.

Schlagwörter: OpenAI + ChatGPT + MIT

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 10. Oktober 2025