KI-Training für menschliche Entscheidungen: Verzerrungen in verhaltensökonomischen Theorien aufgedeckt
Eine neue Studie, die im renommierten Fachjournal Nature Human Behaviour veröffentlicht wurde, beschäftigt sich mit den Eigenschaften von verhaltensökonomischen Theorien, die von Künstlicher Intelligenz (KI) automatisch erlernt wurden. Die Forscher des Centre for Cognitive Science der TU Darmstadt und von hessian.AI haben dabei Verzerrungen in diesen Theorien festgestellt.
Im täglichen Leben sind Menschen kontinuierlich mit der Notwendigkeit konfrontiert, riskante Entscheidungen zu treffen. Beispiele dafür sind Investitionen am Aktienmarkt, der Abschluss einer Versicherung, das Spielen im Lotto oder der Kauf eines neuen Telefons, dessen Preis morgen möglicherweise sinken könnte.
Seit langer Zeit untersuchen Forscher aus den Bereichen Wirtschaftswissenschaften, Psychologie und Kognitionswissenschaften Entscheidungen wie diese im Labor, indem sie Wetten verwenden. Diese Komponenten charakterisieren riskante Entscheidungen: Es gibt verschiedene Handlungsmöglichkeiten, jede Option hat spezifische Wahrscheinlichkeiten für Ergebnisse, und diese Ergebnisse sind mit bestimmten Auszahlungen verknüpft.
Als Beispiel könnte man vor die Entscheidung gestellt werden, entweder einen sicheren Betrag von 100 Euro zu erhalten oder ein Lotterielos zu wählen, bei dem man mit einer Wahrscheinlichkeit von 75 Prozent 150 Euro gewinnt, aber zu 25 Prozent leer ausgeht. Die Ergebnisse solcher Experimente haben gezeigt, dass Menschen regelmäßig von der mathematisch besten Wahl abweichen und dadurch Geld verlieren. Im oben genannten Glücksspiel bevorzugen viele Menschen trotz eines höheren erwarteten Werts der zweiten Option die erste Option.
Aufgrund der erheblichen Auswirkungen dieser Entscheidungsfehler auf das individuelle Leben und die Gesamtwirtschaft besteht ein fortwährendes wissenschaftliches Interesse darin, vorherzusagen, wie Menschen suboptimale Entscheidungen treffen. Die Arbeiten von Daniel Kahneman und Amos Tversky, die sich darauf konzentrierten, natürliche Dummheit statt künstlicher Intelligenz zu untersuchen, führten zur Entwicklung der kumulativen Prospect Theory und verdienten ihnen im Jahr 2002 den Nobelpreis für Wirtschaftswissenschaften.
Obwohl diese Theorie eine verbesserte Beschreibung menschlicher Entscheidungen liefert, gibt es immer noch zahlreiche Anomalien und Kontexte, in denen Entscheidungen nicht gut prognostiziert werden können. Es gestaltet sich noch herausfordernder, Erklärungen für menschliche Entscheidungen zu finden, einschließlich bekannter Konzepte wie der von Gerd Gigerenzer vorgeschlagenen Idee, dass Entscheidungen auf kognitiven Abkürzungen, den sogenannten Heuristiken, basieren.
Ein aktuelles Forschungsteam der Princeton University in den USA hat in einer Studie Künstliche Intelligenz verwendet, um menschliche Entscheidungen bei riskanten Glücksspielen besser zu erforschen. Die Überlegung besteht darin, dass wenn tiefe neuronale Netze immer besser darin werden, Daten vorherzusagen, sie möglicherweise auch menschliche Entscheidungen genauer vorhersagen können als verhaltensökonomische Theorien.
Um solche neuronalen Netze zu trainieren, sind jedoch enorme Mengen an Daten erforderlich. Im Zuge der Studie wurde daher ein Datensatz erstellt, der über 13.000 Wetten umfasst und menschliche Entscheidungen dazu enthält. Die Forscher konnten basierend auf diesem Datensatz feststellen, dass die neuronalen Netze, die am wenigsten von theoretischen Annahmen eingeschränkt waren, die besten Ergebnisse bei der Vorhersage von Spielentscheidungen von Menschen erzielten.
Aus diesen Erkenntnissen entwickelten die Forscher eine „maschinell erlernte Theorie der wirtschaftlichen Entscheidungsfindung“, die eine interpretierbare Zusammenfassung des Verhaltens dieser neuronalen Netze darstellt. Forscher des LOEWE-Schwerpunkts „WhiteBox“ an der TU Darmstadt haben in einer neuen Publikation in der renommierten Fachzeitschrift Nature Human Behavior systematisch die Vorhersagen untersucht, die durch die Kombination verschiedener maschineller Lernmodelle mit unterschiedlichen Entscheidungsdatensätzen entstehen.
Die Veröffentlichung, die aus einem Kursprojekt im Masterstudiengang Cognitive Science hervorgegangen ist, hat bemerkenswerte Unterschiede in der Vorhersage menschlicher Entscheidungen aufgezeigt. Obwohl einige neuronale Netze die Entscheidungen aus dem Datensatz der Studie von 2021 am präzisesten vorhersagen konnten, konnten sie dies nicht für menschliches Verhalten in kleineren psychologischen Experimenten erreichen.
Ein solches Beispiel verdeutlicht typischerweise, wie Verzerrungen in Datensätzen zu Interaktionseffekten zwischen Modellen und Datensätzen führen können, was wiederum dazu führt, dass Erkenntnisse aus einem Datensatz nicht auf einen anderen übertragbar sind. Basierend auf diesen Beobachtungen haben die Forscher ein generatives kognitives Modell entwickelt, das die quantitativen Unterschiede zwischen den tatsächlichen Entscheidungen in den Datensätzen und den Vorhersagen der KI-Modelle mit klassischen verhaltensökonomischen Ergebnissen der menschlichen Entscheidungsunsicherheit erklärt.
Professor Constantin Rothkopf vom Centre for Cognitive Science der TU Darmstadt, der Letztautor des Fachartikels in Nature Human Behaviour ist, betont, dass obwohl neuronale Netze in der Lage sind, alle Vorhersagefehler in einem Datensatz zu übertreffen, dies keine Gewähr dafür bietet, dass dies auch auf andere Datensätze menschlicher Glücksspiele oder sogar auf natürlichere, alltägliche Entscheidungen übertragbar ist.
Die Studie verdeutlicht, dass die Automatisierung der Kognitionswissenschaft durch künstliche Intelligenz noch immer eine Herausforderung darstellt und dass eine sorgfältige Kombination aus theoretischen Überlegungen, maschinellem Lernen und Datenanalysen erforderlich ist, um zu verstehen und zu erklären, warum menschliche Entscheidungen von mathematischen Optimum abweichen.
Schlagwörter: TU Darmstadt + Nature Human + KI
Wie bewerten Sie den Schreibstil des Artikels?
