Das KI-Gesetz der Europäischen Union steht vor einer möglichen Hürde. Laut Euractiv könnte der Trilog, bei dem das EU-Parlament, die EU-Kommission und der Europäische Rat zusammenkommen, um über das Gesetz zu verhandeln, scheitern. Ein zentraler Streitpunkt liegt dabei in der Regulierung von großen Sprachmodellen wie Llama 2 oder GPT-4, die als Allgemeine KI-Modelle betrachtet werden.
Einige Regierungen, darunter Frankreich und Deutschland, sprechen sich gegen eine strenge Regulierung solcher Modelle aus. Sollte der Prozess nicht bis Anfang Dezember wieder aufgenommen werden, besteht die Gefahr, dass das Gesetz nicht rechtzeitig vor der Wahl des nächsten Europaparlaments im Juni 2024 verabschiedet werden kann. Im schlimmsten Fall könnte das Vorhaben sogar komplett scheitern.
Seit dem Jahr 2021 wird über das Gesetz zur Regulierung von KI-Anwendungen debattiert, und die EU hat damit eine führende Position in diesem Bereich eingenommen. Ursprünglich war geplant, KI-Anwendungen in verschiedene Risikokategorien einzuteilen und bestimmte Anwendungen wie Echtzeit-Biometrie komplett zu verbieten. Für Hochrisiko-Anwendungen, bei denen KI in lebenswichtige Bereiche wie Medizin, Justiz oder Strafverfolgung eingreift, sollte eine strenge Regulierung gelten.
Jedoch führte der schnelle Aufstieg großer Sprachmodelle zu einer neuen Diskussion. Der Europäische Rat schlug ursprünglich vor, Foundation Models überhaupt nicht zu regulieren. Später änderte er seine Position, während das EU-Parlament sich für eine umfassende Regulierung dieser Modelle einsetzt, unabhängig von ihrer spezifischen Anwendung.
Im aktuellen Trilog-Prozess steht nun die Suche nach einem Kompromiss im Vordergrund. Wie üblich wird diese interne Beratung von intensiver Lobbyarbeit begleitet und beeinflusst. Laut Euractiv könnte ein möglicher Kompromiss darin bestehen, dass Hersteller besonders leistungsstarker Modelle sich Audits durch eine zukünftige EU-Behörde unterziehen müssen. Diese Prüfungen könnten entweder von der Kommission, unabhängigen Prüfern oder überprüften Red-Teamern mit API-Zugang zum Modell durchgeführt werden.
Der vorgeschlagene Rahmen für die Governance beinhaltet ein KI-Büro sowie ein wissenschaftliches Gremium, das regelmäßige Konsultationen mit der wissenschaftlichen Gemeinschaft, der Zivilgesellschaft und den Entwicklern durchführt.
Besonders die französische Regierung äußert Bedenken, dass diese Regulierungen das Wachstum innovativer Start-ups behindern könnten. Einige Gründer solcher Unternehmen haben bereits ihre Bedenken geäußert und befürchten, dass ihre Unternehmen durch das KI-Gesetz in Gefahr geraten könnten.
Es war abzusehen, dass es bei diesem Prozess zu hitzigen Diskussionen kommen würde. Die Juristin Sandra Wachter vom Oxford Internet Institute hofft jedoch, dass letztendlich eine gute Lösung gefunden werden kann, die sowohl den Schutz der Grundrechte als auch die Interessen der Industrie berücksichtigt.
Es ist wichtig, dass Gesetze zur Regulierung von KI-Anwendungen weder zu früh noch zu spät erlassen werden. Wenn sie zu früh kommen, können sie Innovationen behindern, insbesondere wenn potenzielle Risiken noch nicht ausreichend bekannt sind. Wenn sie zu spät kommen, versäumen sie es, Schäden zu verhindern. Der AI Act könnte zum richtigen Zeitpunkt in Kraft treten, da wir bereits mit den Risiken vertraut sind, die KI-Anwendungen mit sich bringen. Diese Risiken sind klar erkennbar und stellen ein Problem dar, insbesondere in Bezug auf Entscheidungen in der Strafrechtspflege, im Versicherungswesen und in der Arbeitswelt, die zu Benachteiligung und Diskriminierung führen können, insbesondere gegenüber Frauen und Menschen nicht-weißer Herkunft.
Schlagwörter: KIGesetz der EU + Regulierung von Sprachmodellen + TrilogProzess
Wie bewerten Sie den Schreibstil des Artikels?
