KI-Regulierung in EU: Unternehmen fordern klare Regeln und KMU-Unterstützung

Die Fraunhofer-Gesellschaft hat eine Studie zur aktuellen Situation der KI-Zertifizierung durchgeführt, um die Absicherung und Zertifizierung von Künstlicher Intelligenz (KI) aus Sicht der Unternehmen zu verbessern. Angesichts des zunehmenden Einsatzes von KI sowohl im privaten als auch im beruflichen Bereich und der Diskussion auf europäischer Ebene über Regulierungen in diesem Bereich ist dies ein wichtiges Thema.

Um die Bedürfnisse der Unternehmen besser zu verstehen, haben die Fraunhofer-Institute IAO und IPA die derzeitigen regulatorischen Maßnahmen untersucht und die Anforderungen in Bezug auf Künstliche Intelligenz (KI) in einem neuen Whitepaper zusammengefasst. Künstliche Intelligenz (KI) hat in den letzten Jahren sowohl im persönlichen als auch im beruflichen Bereich stark an Bedeutung gewonnen. Sie hat das Potenzial, zahlreiche Branchen und Aspekte unserer Gesellschaft zu transformieren, indem sie Effizienz und Qualität in verschiedenen Anwendungsbereichen verbessert.

Allerdings gehen mit dem Einsatz von Künstlicher Intelligenz (KI) auch bedeutende Risiken und Unsicherheiten einher, wie zum Beispiel algorithmische Fehler, potenzielle Haftungsrisiken, Diskriminierung und Verletzungen des Datenschutzes. Um diese Herausforderungen zu bewältigen, hat die Europäische Union (EU) im Jahr 2021 den Gesetzesentwurf für den EU AI Act vorgelegt, der darauf abzielt, Künstliche Intelligenz (KI) zu regulieren. Der AI Act spielt eine entscheidende Rolle im Innovation Park Artificial Intelligence, der das größte europaweite Ökosystem für die Entwicklung von KI aufbaut.

Um sicherzustellen, dass KI-Anwendungen im Innovation Park Artificial Intelligence (Ipai) sowohl innovativ und effizient als auch sicher und ethisch verantwortungsbewusst sind, haben das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA ein Verständnis der EU-Standards aus dem AI Act entwickelt. Dies hilft ihnen und ihren Mitgliedsunternehmen, alle erforderlichen Maßnahmen zur Absicherung und Zertifizierung von KI-Systemen zu ergreifen.

Basierend auf Experteninterviews haben die Fraunhofer-Institute den gegenwärtigen Stand der gesetzlichen Vorschriften zur Absicherung von Künstlicher Intelligenz (KI) analysiert und Anforderungen seitens Unternehmen, Forschungs- und Bildungseinrichtungen für die Umsetzung von Absicherungs- und Zertifizierungsprozessen von KI-Systemen formuliert. Dabei stellte sich heraus, dass Unternehmen klare Anforderungen an Regelungen zur Absicherung von KI haben, wie beispielsweise Transparenz und Durchführbarkeit von Zertifizierungsprozessen, deutlich definierte Rollen von Behörden und Institutionen sowie die Erhaltung der Innovationsfähigkeit.

Es wurde jedoch festgestellt, dass viele Unternehmen nicht ausreichend auf die bevorstehenden Regulierungen gemäß dem EU AI Act vorbereitet sind. Daher besteht ein Bedarf an externer Unterstützung, um bei der Absicherung und Zertifizierung von KI-basierten Systemen zu helfen. Dies kann in Form von Informationsvermittlung, Wissenstransfer, Netzwerkbildung, individueller Beratung sowie praktischen Methoden und Werkzeugen erfolgen.

Ein kontinuierlicher Dialog zwischen Regulierungsbehörden, Industrie, Forschungseinrichtungen und der Gesellschaft insgesamt ist entscheidend, um ein ganzheitliches Verständnis für die Möglichkeiten und Herausforderungen des Einsatzes von Künstlicher Intelligenz (KI) zu entwickeln. Dies wird letztendlich zur Entstehung von KI-Systemen führen, die eine höhere Effektivität, Sicherheit und Praxisorientierung aufweisen.

Schlagwörter: KIRegulierung + Anforderungen + Unterstützungsangebote

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 2. November 2023