Menschen übertragen ihre geschlechtsspezifischen Vorurteile auf die Interaktion mit Künstlicher Intelligenz, wie eine neue Studie aus dem Trinity College Dublin und der LMU München zeigt. Die Ergebnisse, veröffentlicht in der Fachzeitschrift iScience, verdeutlichen, dass menschliche Rollenbilder und Erwartungen nicht nur für menschliche Beziehungen gelten, sondern auch in die Interaktion zwischen Mensch und Maschine eingreifen.
Die Studie, an der über 400 Teilnehmer teilnahmen, untersuchte, wie geschlechtsspezifische Zuschreibungen Einfluss auf das Verhalten in der Zusammenarbeit mit KI haben. Dabei spielten die Teilnehmenden das Gefangenendilemma, einen Klassiker der Spieltheorie, bei dem es um Kooperation und Ausnutzung geht. Die interessante Erkenntnis: Die Zuschreibung des Geschlechts an die KI-Partner beeinflusste das Vertrauen und die Kooperationsbereitschaft der Menschen. Weiblich gekennzeichnete KI-Systeme wurden in einem ähnlichen Maße ausgenutzt wie menschliche Frauen, während männlich markierte Systeme mit dem Misstrauen gegenüber menschlichen Männern verglichen werden konnten. Besonders bei weiblichen KIs wurde eine höhere Ausbeutungsrate festgestellt als im direkten Austausch mit menschlichen Frauen.
Diese Studie ist die erste ihrer Art, die die Rolle des Geschlechts in der Mensch-KI-Interaktion systematisch empirisch untersucht. Die Ergebnisse beleuchten ein zentrales Dilemma: Während menschenähnliche KI-Agenten die Zusammenarbeit fördern können, besteht gleichzeitig die Gefahr, dass menschliche Vorurteile verstärkt werden und auf die Maschine übertragen werden.
Dr. Jurgis Karpus, Mitautor der Studie, betont die Notwendigkeit, bei der Gestaltung von KI die Geschlechterdarstellung sorgfältig zu reflektieren. Nur so lässt sich ein vertrauenswürdiges Umfeld für Mensch-Maschine-Interaktionen schaffen, das Diskriminierung minimiert und ein faires Miteinander ermöglicht. Entwicklerinnen und Entwickler müssen sich daher bewusst mit den geschlechtsspezifischen Vorurteilen in menschlichen Interaktionen auseinandersetzen, um sie abzubauen und somit sozial verantwortliche und vertrauenswürdige KI-Systeme zu entwickeln.
Schlagwörter: Trinity College Dublin + München + iScience
Wie bewerten Sie den Schreibstil des Artikels?
