Israelische Armee setzt KI zur Auswahl von Bombenziele ein: Kontroverse um Effektivität und Sicherheit
Die israelische Armee hat Berichten zufolge künstliche Intelligenz eingesetzt, um Bombenziele in Gaza auszuwählen. Das System namens Lavender wurde angeblich entwickelt, um auf die Angriffe der Hamas zu reagieren. Allerdings gibt es kontroverse Diskussionen darüber, wie genau und effektiv dieses System ist.
Laut Berichten wurden rund 37.000 Palästinenser in Gaza als vermeintliche Hamas-Kämpfer markiert und dementsprechend als potenzielle Angriffsziele eingestuft. Das israelische Militär hat jedoch bestritten, dass es eine solche Todesliste gibt. Ein Sprecher erklärte, dass künstliche Intelligenz nicht zur Identifizierung von Terroristen verwendet werde, sondern dass Lavender lediglich als Werkzeug für Analysten im Zielidentifikationsprozess diene.
Demnach müssen die Analysten unabhängige Untersuchungen durchführen, um sicherzustellen, dass die identifizierten Ziele den internationalen Rechtsnormen und den Richtlinien der IDF entsprechen. Es ist jedoch besorgniserregend, dass israelische Geheimdienstoffiziere angeblich nicht dazu verpflichtet sind, unabhängige Untersuchungen der Lavender-Ziele durchzuführen, bevor sie sie bombardieren. Stattdessen fungieren sie effektiv als „Gummistempel“ für die Entscheidungen des Systems.
Lavender wurde trainiert, Merkmale zu identifizieren, die mit Hamas-Operateuren in Verbindung gebracht werden, wie beispielsweise die Mitgliedschaft in einer bestimmten WhatsApp-Gruppe oder häufige Änderungen der Wohnadresse. Basierend auf der Ähnlichkeit mit bekannten Hamas-Operateuren wurden andere Palästinenser in Gaza bewertet und als potenzielle Angriffsziele gekennzeichnet.
Es gibt jedoch Bedenken hinsichtlich der Genauigkeit dieses Systems. Eine Militärquelle gab an, dass der Schwellenwert für die Definition eines Hamas-Operators variabel ist und sich daher auch die Genauigkeitsrate des Systems ändert. Berichten zufolge beträgt die Genauigkeitsrate etwa 90 Prozent, was bedeutet, dass rund 10 Prozent der als Hamas-Operateure identifizierten Personen tatsächlich keine sind.
Es ist wichtig anzumerken, dass Fehler statistisch behandelt werden. Dies bedeutet, dass selbst wenn man sich nicht sicher ist, ob das System richtig liegt, es trotzdem umgesetzt wird. Dies wirft Fragen auf und könnte zu tragischen Konsequenzen führen, insbesondere wenn unschuldige Zivilisten betroffen sind.
Die Nutzung von künstlicher Intelligenz zur Auswahl von Bombenziele ist zweifellos ein kontroverses Thema. Es gibt sowohl Befürworter als auch Kritiker dieser Praxis. Die israelische Armee betont, dass das Lavender-System lediglich als Werkzeug für Analysten dient und dass unabhängige Untersuchungen durchgeführt werden müssen, um die Identifizierung der Ziele zu überprüfen.
Es bleibt abzuwarten, wie sich diese Technologie weiterentwickeln wird und ob sie in Zukunft noch mehr Einfluss auf militärische Operationen haben wird. In jedem Fall ist es wichtig, die Auswirkungen solcher Systeme sorgfältig zu analysieren und sicherzustellen, dass sie im Einklang mit den Vorgaben des internationalen Rechts stehen und die Sicherheit von unschuldigen Menschen gewährleisten.
Schlagwörter: Gaza + Local + CNN
Wie bewerten Sie den Schreibstil des Artikels?
