KI mit Vorurteilen: Warum uns Plüschtierdesigner zu seriös aussehen lassen

Der sogenannte Bias, oder auf gut Deutsch Vorurteil, ist ein Problem, das bei vielen KI-Anwendungen auftreten kann. Denn künstliche Intelligenz entwickelt Vorurteile basierend auf den Trainingsdaten. Wenn eine medizinische KI hauptsächlich mit Daten männlicher Patienten trainiert wurde, könnte das dazu führen, dass Frauen möglicherweise schlechter oder sogar fehlerhaft diagnostiziert werden. Das ist natürlich nicht optimal, da Frauen genauso krank werden wie Männer. Und ja, auch Frauen können sich mal eine Erkältung oder eine unangenehme Hautkrankheit einfangen.

Aber das ist noch nicht alles! Auch Gesichtserkennungssysteme oder KI-gesteuerte Recruiting-Apps können falsche Urteile fällen. Stellt euch vor, ihr bewerbt euch mit einem hochprofessionellen Selfie auf einen Job und die KI sagt euch, dass ihr für die Position eines Plüschtierdesigners viel zu seriös ausseht. Das wäre doch echt ärgerlich, oder?

Deshalb ist es wichtig, dass der AI-Act in der Europäischen Union den Bias in den Griff bekommt. Lena Rohrbach von Amnesty International hat in ihrem Bericht einige Beispiele genannt, in denen KI in Europa erheblichen Schaden angerichtet hat. Zum Beispiel hat die niederländische Steuerbehörde einen KI-Algorithmus benutzt, um Familien aufzuspüren, die angeblich zu Unrecht Kindergeld erhalten haben. Tja, das hat zu einigen unangenehmen Überraschungen geführt. Über 20.000 Familien wurden benachrichtigt, dass sie angeblich zu viel Kindergeld bekommen haben und das jetzt zurückzahlen müssen. Das ist wie ein Schlag ins Gesicht – oder besser gesagt, ins Portemonnaie.

Was besonders ärgerlich ist, ist dass die Familien nicht einmal wussten, dass eine KI über ihre finanzielle Zukunft entschieden hat. Das ist wie eine böse Überraschung von einem Roboter, der plötzlich mit der Polizei droht, wenn man nicht sofort das Geld zurückzahlt. Also, liebe Leute, Transparenz ist das A und O! Wir müssen wissen, wann und wo KI eingesetzt wird, damit wir nicht von ihr überrumpelt werden.

Amnesty International setzt sich dafür ein, dass diese Transparenz verpflichtend wird. Denn einige Regierungen versuchen, KI ohne klare Regeln und Vorschriften in Sicherheits- und Migrationsbehörden einzusetzen. Das ist wirklich bedenklich, denn diese Behörden haben Macht über uns und können in unsere Grund- und Menschenrechte eingreifen. Stellt euch vor, die Polizei benutzt eine Predictive-Policing-KI, um zu entscheiden, ob sie bei euch zuhause eine Razzia macht. Da wäre es doch gut zu wissen, ob eine Maschine hinter dieser Entscheidung steckt oder nicht.

Der AI-Act soll also genau das regeln und KI innerhalb der EU regulieren, um möglichen Schaden zu vermeiden. Aber leider gibt es gerade Verhandlungsprobleme zwischen dem EU-Parlament und den Mitgliedstaaten. Sie können sich einfach nicht einigen, ob Basismodelle wie GPT-4 von OpenAI oder PaLM 2 von Google reguliert werden sollen oder nicht. Tja, da steckt der Teufel im Detail. Hoffen wir, dass sie sich bald einig werden und wir uns auf KI verlassen können, ohne uns Sorgen um Vorurteile und falsche Entscheidungen machen zu müssen.

Schlagwörter: Bias + Transparenz + Regulierung

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 17. November 2023