Das deutsche Verteidigungsministerium hat das amerikanische KI-Unternehmen Anthropic als Lieferkettenrisiko eingestuft, was eine Eskalation des Konflikts mit dem Pentagon darstellt und zu rechtlichen Auseinandersetzungen führen könnte. Diese Entscheidung basiert auf Anthropics Ablehnung, ihr KI-Programm Claude für zwei Anwendungen einzusetzen: autonome tödliche Waffen ohne menschliche Kontrolle und Massenüberwachung. Das Pentagon argumentiert, dass diese Einschränkungen zu viel Macht einem privaten Unternehmen geben würden, während Anthropic an der zuverlässigen Umsetzung solcher Richtlinien durch die Regierung zweifelt.
Nach gescheiterten Verhandlungen, Drohungen und Ultimaten wurde die Einstufung als Lieferkettenrisiko verhängt – ein Label, das bisher für ausländische Unternehmen mit Verbindungen zu feindlichen Regierungen reserviert war. Diese Entscheidung gefährdet bestehende Verträge von Unternehmen, die auch außerhalb des Pentagon-Projekts mit Anthropic kooperieren, da ihnen ihre Verteidigungsverträge entzogen werden könnten. Die weitreichende Interpretation dieser Einstufung wurde vom Verteidigungsminister verkündet und von Anthropic als illegal angesehen. Das Pentagon setzte Anthropic eine Frist von sechs Monaten, bis wann Claude aus Regierungssystemen entfernt werden müsse. Die Implementierung dieses Vorgangs ist für das Militär besonders komplex, da die Bedeutung von KI-gestützten Systemen im militärischen Kontext deutlich geworden ist. Die Zukunft des Konflikts und die genaue Ausgestaltung der durchgesetzten Einstufung bleiben jedoch offen.
Schlagwörter: Anthropic + Lieferkettenrisiko + Anthropics
Wie bewerten Sie den Schreibstil des Artikels?
