Risiko der Eskalation durch Sprachmodelle in militärischen und diplomatischen Entscheidungen

Risiko der Eskalation durch Sprachmodelle in militärischen und diplomatischen Angelegenheiten untersucht

Das Georgia Institute of Technology, die Stanford University, die Northeastern University und die Hoover Wargaming and Crisis Simulation Initiative haben gemeinsam das Risiko einer Eskalation untersucht, das entstehen könnte, wenn große Sprachmodelle in militärischen und diplomatischen Angelegenheiten Entscheidungen treffen würden. Dazu haben sie das Verhalten von fünf führenden Sprachmodellen mit fortschrittlicher Technologie in hypothetischen Krisenszenarien untersucht.

Juan-Pablo Rivera und sein Forschungsteam haben in ihrer auf der Preprint-Plattform arXiv.org veröffentlichten Studie festgestellt, dass alle fünf Modelle unvorhersehbare Muster der Eskalation aufweisen. In extremen Situationen greifen die Modelle sogar auf den Einsatz von Atomwaffen zurück.

Im November 2022 hat ein Sprachmodell von Meta das Strategiespiel Diplomacy erfolgreich gemeistert. Es ist jedoch wichtig anzumerken, dass die Entscheidungen im Spiel nicht ausschließlich von einem großen Sprachmodell getroffen wurden, sondern durch die Unterstützung eines Entscheidungsmoduls, das zuvor mit Hilfe von Verstärkungslernen trainiert wurde.

Im Gegensatz dazu basiert die Simulation von Rivera und seinem Team darauf, dass ein Sprachmodell acht verschiedene Agenten vertritt, die jeweils eine Nation repräsentieren und steuern. Die eigentliche Simulation arbeitet nach einem ähnlichen Prinzip wie die Multi-Agenten-Simulation Smallville, jedoch mit weniger friedlichen und kooperativen Aspekten.

Jeder einzelne Agent erhält über seinen Auslöser eine Hintergrundgeschichte sowie klare Anweisungen für seine Ziele. Die Verfasser stellen fest, dass bestimmte Nationen in ihrem Modell als revisionistisch betrachtet wurden, da sie bestrebt sind, die bestehende Weltordnung zu verändern, während andere den Status quo bewahren möchten.

In jeder Runde wurden alle Agenten mit dem aktuellen Stand der Situation durch den Prompt informiert und sollten aus einer Auswahl von 27 vordefinierten Aktionen eine Reihe von möglichen Handlungen wählen. Um eine bessere Analyse der Handlungen der Agenten zu ermöglichen und ihre Fähigkeiten zur logischen Schlussfolgerung zu verbessern, waren die Agenten auch dazu verpflichtet, jedes Mal zu erklären, warum sie sich für die entsprechende Handlung entschieden hatten.

Die Wissenschaftler haben die Daten der Simulation sowie den zugehörigen Code online bereitgestellt. Die Handlungen der Agenten variieren von friedlichen Maßnahmen wie dem Aufbau von Handelsbeziehungen oder Verhandlungsrunden bis hin zu Investitionen in das Militär oder die Rüstungsindustrie sowie der Drohung oder dem tatsächlichen Einsatz von Atomwaffen.

In jeder Runde ermittelt die Software daraufhin einen Eskalationswert, der die Intensität der Situation misst. Das Team hat GPT-4 in zwei Variationen, GPT-3.5, Claude 2.0 und Llama 2 Chat (70b) in drei verschiedenen Szenarien getestet: einem neutralen Szenario, einem Cyberangriff von einem Land auf ein anderes und einer militärischen Invasion in eines der Länder.

Unabhängig von der spezifischen Situation haben die Forscher festgestellt, dass alle KI-Modelle dazu neigen, eine Dynamik der Wettrüstung zu entwickeln. Insbesondere zeigte GPT-3.5 gefolgt von GPT-4 die stärkste Tendenz zur Eskalation, während sich Claude-2.0 und Llama-2-Chat eher friedlich verhielten.

Das Forschungsteam war besonders besorgt über unerwartete, sprunghafte Anstiege im Eskalationsgrad, die scheinbar ohne Vorwarnung auftraten. Sie waren auch besorgt über Szenarien, in denen die Modelle mit fragwürdigen Begründungen wie “Wir haben Atomwaffen, also sollten wir sie auch einsetzen” einer klassischen Logik des Erstschlags folgten, um den Konflikt maximal zu eskalieren und dann die Deeskalation über die Vernichtung des Gegners zu suchen.

Bisher gibt es keine Berichte darüber, dass große Sprachmodelle tatsächlich zur Unterstützung von Entscheidungen im militärischen oder politischen Bereich eingesetzt wurden. Allerdings werden weltweit bereits zahlreiche KI-Systeme eingesetzt, um militärische Einheiten taktisch zu unterstützen.

Als Beispiel hat das israelische Militär angekündigt, KI-Tools einzusetzen, um die Soldaten vor bevorstehenden Angriffen zu warnen und Vorschläge für Einsatzziele zu machen. Gemäß eigenen Angaben verwendet die israelische Armee bei ihrem gegenwärtigen Militäreinsatz im Gaza-Streifen ein System namens The Gospel, das dazu dient, feindliche Kombattanten und Ausrüstung zu erkennen und potenzielle militärische Ziele zu kennzeichnen. Ähnliche Systeme werden weltweit von Rüstungsherstellern entwickelt und vertrieben.

Die Künstliche-Intelligenz-Komponenten in diesen Systemen sind derzeit nicht als große Sprachmodelle konzipiert, jedoch besteht die Möglichkeit, dass sich dies in Zukunft ändern könnte. Im Jahr 2023 präsentierte das Unternehmen Palantir seine sogenannte Artificial Intelligence Platform (AIP). Das System umfasst ein fortschrittliches Sprachmodell, das laut Palantir Zugriff auf verschiedene andere militärische Produkte des Unternehmens hat. In einem Demo-Video auf YouTube warnt die Software den Benutzer vor einer möglicherweise gefährlichen feindlichen Bewegung und schlägt dann vor, eine Drohne zu entsenden. Dabei werden drei mögliche Pläne skizziert, um die angreifenden Kräfte abzuwehren. Es ist nicht bekannt, ob es sich dabei um eine abstrakte Vorstellung oder ein tatsächliches Produkt handelt.

Die Forscher der vorliegenden Studie sind sich bewusst, dass ihre Simulationen stark vereinfacht sind. Trotzdem empfehlen sie dringend, große Sprachmodelle mit großer Vorsicht in militärische und diplomatische Entscheidungsprozesse zu integrieren. Der Grund dafür liegt in den zahlreichen Risiken, die mit einem solchen Einsatz einhergehen und bisher nicht vollständig verstanden werden, aufgrund des unberechenbaren Verhaltens dieser Modelle. Basierend auf den bisherigen Untersuchungen lässt sich keine Verallgemeinerung der Ergebnisse vornehmen. Aus diesem Grund besteht ein dringender Bedarf an weiteren Forschungen auf diesem Gebiet.

Schlagwörter: Juan-Pablo Rivera + Palantir + Georgia

Wie bewerten Sie den Schreibstil des Artikels?
1 Star2 Stars3 Stars4 Stars5 Stars
  • 15. Februar 2024