Sicherheit ist wichtig, das wissen wir alle. Besonders, wenn es um die Entwicklung von KI-Systemen geht. Denn wer will schon, dass sein autonomes Transportmittel plötzlich Amok läuft oder die medizinische Diagnose von KI-Systemen so zuverlässig ist wie der Wetterbericht? Genau aus diesem Grund hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) in Zusammenarbeit mit Behörden aus Großbritannien und den USA Richtlinien für die sichere Entwicklung von KI-Systemen veröffentlicht.
Diese Richtlinien sollen nicht nur Anbieter, Betreiber und Entwickler von KI-Systemen ansprechen, sondern auch Datenwissenschaftler, Manager und Entscheidungsträger. Denn alle haben ihren Beitrag zu leisten, um sicherzustellen, dass diese Systeme sensiblen Daten aus dem Weg gehen und zuverlässig funktionieren.
Die Richtlinien behandeln vier Sicherheitsthemen, nämlich das Design, die Entwicklung, die sichere Bereitstellung sowie den Betrieb und die Wartung von KI-Systemen. Sie orientieren sich dabei an den Vorgaben des UK National Cybersecurity Centre und dem Secure Software Development Framework des NIST. Dabei geht es um Dinge wie das Verständnis von Risiken, die Modellierung von Bedrohungen, eine sichere Lieferkette und die Dokumentation.
Das Ziel dieser Richtlinien ist es, Sicherheitsrisiken im Zusammenhang mit KI zu identifizieren und mögliche Gegenmaßnahmen vorzuschlagen. Dabei werden bewährte Sicherheitsprinzipien wie „security-by-design“ und „security-by-default“ verwendet. Es ist jedoch wichtig zu beachten, dass nicht alle Richtlinien für jede Organisation gleichermaßen anwendbar sind. Die Angriffsmethoden können je nach Gegner unterschiedlich sein. Besonders wichtig ist es, potenzielle KI-Cybersicherheitsrisiken im Blick zu behalten, da eine Kompromittierung des Systems zu einem Verlust sensibler oder vertraulicher Informationen führen könnte.
Die Richtlinien machen auch deutlich, dass die traditionelle Situation, in der es nur einen Anbieter und einen Nutzer gibt, immer seltener wird. Immer öfter integrieren Anbieter Software, Daten, Modelle oder Remote-Dienste von Dritten. Das macht es für Endverbraucher schwierig, die Verantwortlichkeiten zu verstehen. Oft fehlt es ihnen auch an dem Fachwissen, um die Risiken angemessen einzuschätzen.
Das BSI betont daher, dass die Betreiber der Systeme transparent sein und potenzielle Risiken kommunizieren sollten, wie es in den Richtlinien empfohlen wird. Die Richtlinien werden von 23 internationalen Cybersicherheitsbehörden aus 18 Ländern unterstützt, darunter die National Security Agency (NSA) und das Federal Bureau of Investigations (FBI). Das BSI betont, dass Fragen zur Sicherheit von KI-Systemen nur in Zusammenarbeit mit internationalen Partnern gelöst werden können und dass dringender Handlungsbedarf besteht.
Also, liebe Entwickler und Betreiber von KI-Systemen, haltet euch an die Richtlinien! Denn Sicherheit geht vor und niemand will, dass die KI-Welt zu einem wilden Westen wird.
Schlagwörter: Bundesamt für Sicherheit in der Informationstechnik BSI + Künstliche Intelligenz KI + Sicherheitsrichtlinien
Wie bewerten Sie den Schreibstil des Artikels?