Wenn man den Suchbegriff „KI-Fehler“ in eine Suchmaschine eingibt, bekommt man schnell eine Ahnung davon, wie weitreichend das Problem ist. Von amüsanten Fehlern wie Hunden in der NBA bis hin zu rassistischen Chatbots und Geschichten über Bilderkennungssoftware, die Menschen mit Tieren verwechselt, gibt es eine Vielzahl von Vorfällen. Es ist offensichtlich, dass KI gelegentlich Fehler macht, manchmal sogar äußerst schwerwiegende.
In der heutigen Zeit trifft Künstliche Intelligenz bereits bedeutsame Entscheidungen, die einen erheblichen Einfluss auf das Leben von Menschen haben können. KI-Systeme werden beispielsweise in Bereichen wie der Kreditvergabe, Bewerbungsverfahren und der Medizin eingesetzt. Je nach Situation erhält der Kreditsuchende entweder kein Angebot, einen kostspieligen oder einen preiswerten Kredit. Im Rahmen von Bewerbungsverfahren scheiden mithilfe von KI unpassende Bewerber aus. Mediziner erhalten Unterstützung bei der Erkennung von Tumoren im Körper durch den Einsatz von KI-gestützter Bildverarbeitungssoftware.
Um sicherzustellen, dass die Entscheidungen von solchen KI-Systemen so gerecht wie möglich sind, hat die Europäische Kommission vor Kurzem den AI Act verabschiedet, ein Gesetz, das sich mit Künstlicher Intelligenz befasst. Dieses Gesetz legt fest, dass Hochrisiko-KI-Systeme, die einen erheblichen Einfluss auf das menschliche Leben haben können, effektiv von Menschen überwacht werden sollen. Der genaue Bedeutungsumfang und die Unterscheidung zwischen effektiver und ineffektiver menschlicher Aufsicht wurden jedoch nicht präzise festgelegt.
Eine interdisziplinäre Gruppe von Forschern aus den Bereichen Informatik, Philosophie, Psychologie und Rechtswissenschaft von den Universitäten im Saarland, Dresden und Freiburg hat sich dieser komplexen Fragestellung gewidmet. Sie haben nun ein Regelwerk mit Kriterien entwickelt, das Entwicklern, Anwendern, Gesetzgebern und Gerichten einen Leitfaden zur Verfügung stellt, um eine effektive Überwachung sicherzustellen.
Sarah Sterz, die Erstautorin des vielbeachteten Aufsatzes, erklärt, dass sie vier Kriterien festgelegt haben, die eine Person erfüllen muss, um eine effektive Aufsicht über ein KI-System sicherzustellen. Diese Kriterien wurden im Juni auf der ACM-Konferenz über Fairness, Rechenschaftspflicht und Transparenz präsentiert. Kevin Baum betont, dass dies die bedeutendste Konferenz weltweit für derartige Themen ist. Baum ist Leiter des Center for European Research in Trusted Artificial Intelligence (CERTAIN) am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken und Mitautor des Papers.
Das erste Kriterium besagt, dass eine menschliche Aufsichtsperson kausale Kontrolle über das System haben muss. Das bedeutet, dass der Mensch in der Lage sein muss, in das System einzugreifen und dessen Entscheidungen zu überstimmen. In der Praxis könnte dies beispielsweise durch einen Not-Aus-Schalter an einem Roboter in einer Industriehalle erfolgen oder durch die Möglichkeit, eine KI zu überstimmen, die im Bewerbungsverfahren darüber entscheidet, wer eingeladen wird und wer nicht.
Des Weiteren ist es wichtig, dass die menschliche Aufsicht über das Verständnis darüber verfügt, wie das System arbeitet und welche Auswirkungen ihre Eingriffe hätten. Sarah Sterz erklärt weiterhin, dass sie ein Verständnis dafür haben muss, wie das KI-System funktioniert und welche Handlungsoptionen ihr zur Verfügung stehen.
Darüber hinaus betont Sarah Sterz, dass die Person über ausreichend Selbstkontrolle verfügen muss, um eine KI effektiv zu überwachen. Es ist erforderlich, dass die Person geistig und körperlich in der Lage ist, diese Verantwortung zu erfüllen. Die Informatikerin nennt drei Beispiele, bei denen man beispielsweise nicht betrunken, übermüdet oder gelangweilt sein sollte. Bei der 201. Bewerbung kann es passieren, dass jemand, der bereits 200 Bewerbungen gesichtet hat, Fehler macht. Die Wissenschaftlerin gibt ein praxisnahes Beispiel für dieses Kriterium, das verdeutlicht, dass jemand in diesem Zustand nicht mehr in der Lage wäre, eine effektive Aufsicht über ein KI-System auszuüben.
Ein weiteres wichtiges Kriterium, wie von Sarah Sterz und ihren Co-Autoren definiert, ist, dass die Person die richtigen Absichten haben sollte. Sarah Sterz gibt ein anschauliches Beispiel dafür, dass Superschurken, selbst wenn sie das Verständnis, die konkrete kausale Macht und die ausreichende Selbstkontrolle besitzen, ungeeignet wären, KI-Systeme zu beaufsichtigen. Ein Schurke wie Dr. Evil aus Austin Powers wäre daher nicht geeignet, die Aufsicht über eine KI zu haben, da es nicht in seiner Natur liegt, die Risiken der KI zum Wohl der Menschen zu minimieren.
Kevin Baum, Experte in Informatik und Philosophie, erläutert, warum solche Regeln wichtig sind: Unabhängig davon, wie weit die Technologie fortschreitet, werden KI-Systeme immer Fehler machen. Noch besorgniserregender ist die Tatsache, dass es grundsätzlich mathematisch unmöglich ist, ein KI-System zu entwickeln, das dieselben Fehler mit gleicher Wahrscheinlichkeit für alle Personen macht. Daher ist ein solcher Rahmen, wie wir ihn geschaffen haben, von großer Bedeutung, um menschlichen Aufsichtspersonen die Möglichkeit zu geben, Fehler frühzeitig zu erkennen und schädliche Ergebnisse zu verhindern.
Die Komplexität dieser Fragestellung wird durch die Beteiligung einer Vielzahl von wissenschaftlichen Disziplinen deutlich. Die Frage nach der menschlichen Überwachung von KI geht über rein juristische, philosophische, psychologische oder informationstechnische Aspekte hinaus. Kevin Baum erklärt, dass es vielmehr eine Frage ist, die die Perspektiven all dieser Fachrichtungen miteinander verbinden muss.
Die Europäische Kommission hat bereits deutlich gemacht, wie wichtig sie diese Frage findet, indem sie Sarah Sterz, Kevin Baum und ihre Kollegen vom Europäischen Amt für Künstliche Intelligenz im September nach Schweden einlud, um den Teilnehmern dort ihr Grundsatzpapier zu präsentieren und zu erläutern.
Also, liebe KI-Systeme, das nächste Mal, wenn ihr uns mit euren lustigen oder rassistischen Fehlern überrascht, hoffen wir, dass es eine effektive menschliche Aufsicht gibt, die uns vor solchen Vorfällen bewahrt. Denn letztendlich wollen wir doch alle, dass Künstliche Intelligenz uns hilft und nicht für Chaos sorgt, oder?
Schlagwörter: Erstautorin Sarah Sterz + KI fails“ + Kevin Baum
Wie bewerten Sie den Schreibstil des Artikels?
