Der AI Act: Neue Regeln für KI in der EU sollen Bürger schützen und Missbrauch verhindern

Der AI Act ist da, um die KI in der EU zu regeln. Endlich! Nach endlosen Diskussionen und vielen Tassen Kaffee wurde im März dieses umfassende Regelwerk offiziell verabschiedet. Es gilt für alle Technologieunternehmen, die in der EU tätig sind, und legt Verbote für bestimmte Anwendungen von KI-Tools fest. Das Ziel ist es, die Rechte der Bürger zu schützen und sicherzustellen, dass KI nicht missbraucht wird.

Aber Moment mal, was genau verbietet der AI Act denn nun? Nun, zum Beispiel die biometrische Kategorisierung zur Ableitung von Informationen wie sexueller Orientierung oder Religion. Kein Spaß am Arbeitsplatz oder in Schulen, Emotionserkennungssysteme sind tabu. Und vergiss das ungezielte Sammeln von Gesichtern aus dem Internet oder von Sicherheitskameraaufnahmen. Das ist nicht erlaubt. Auch soziale Bewertungssysteme und vorhersagende Polizeiinstrumente sind in bestimmten Situationen nicht erlaubt. Die EU möchte sicherstellen, dass KI nicht dazu missbraucht wird, die Menschen zu überwachen oder zu diskriminieren.

Aber keine Sorge, Technologieunternehmen haben Zeit, sich an die neuen Regeln anzupassen. Bis zum 2. Februar 2025 müssen sie diese verbotenen Anwendungen als unannehmbares Risiko einstufen und aus ihrem Portfolio entfernen. Und dann, neun Monate später, am 2. Mai 2025, müssen Entwickler Verhaltenskodizes einhalten. Diese Kodizes beschreiben, wie die gesetzliche Einhaltung aussehen soll und umfassen Dinge wie Benchmark-Ziele, Leistungskennzahlen und Transparenzanforderungen. Damit wollen sie sicherstellen, dass die Unternehmen sich an die neuen Regeln halten und ihre KI-Systeme verantwortungsvoll einsetzen.

Ab August 2025 werden dann auch KI-Systeme für allgemeine Zwecke wie Chatbots erwartet, das Urheberrecht zu respektieren und Transparenzanforderungen zu erfüllen. Zum Beispiel müssen sie Zusammenfassungen der für das Training der Systeme verwendeten Daten bereitstellen. Das klingt vernünftig, oder?

Aber Moment mal, es gibt noch mehr! Für hochriskante KI-Systeme gibt es eine längere Frist. Entwickler haben bis zu 36 Monate Zeit (bis August 2027), um Vorschriften wie Risikobewertung und menschliche Aufsicht zu erfüllen. Diese hochriskanten Systeme sind solche, die in die Infrastruktur, Beschäftigung, essentielle Dienstleistungen wie Bankwesen und Gesundheitswesen sowie das Justizsystem integriert sind. Man will hier sorgfältig vorgehen, um sicherzustellen, dass diese Systeme zuverlässig und sicher sind.

Und was passiert, wenn Unternehmen sich nicht an die Regeln halten? Nun, sie können mit Geldstrafen belegt werden. Entweder in Form eines Prozentsatzes ihres Gesamtumsatzes oder eines festen Betrags. Die Verletzung von untersagten Systemen wird mit der höchsten Strafe geahndet: 35 Millionen (ca. 38 Millionen Euro) oder 7 Prozent des weltweiten Jahresumsatzes. Das sollte sie definitiv dazu bringen, die Regeln ernst zu nehmen.

Also, liebe Unternehmen, haltet euch an die Regeln! Der AI Act ist da, um sicherzustellen, dass KI verantwortungsvoll eingesetzt wird und die Rechte der Bürger geschützt werden. Und wer weiß, vielleicht werden wir dank dieser neuen Regeln bald von KI-Systemen umgeben sein, die uns nicht nur helfen, sondern auch zum Lachen bringen.

Schlagwörter: AI Act + EU + August

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 12. Juli 2024