Auf der Rüstungsmesse Eurosatory im Juni 2024 in Paris wurden sie stolz präsentiert: autonome Geräte, Roboter und Drohnen. KI-gestützte Elemente in militärischen Anwendungen gewinnen an Bedeutung, eingesetzte Technologien – so auch Künstliche Intelligenz – entwickeln sich rasant fort. Der Einfluss von Künstlicher Intelligenz (KI) bei strategischer Planung, taktischer Entscheidung und operativer Ausführung wächst ebenfalls weiter. Das Gefechtsfeld im weitesten Sinne, also über den eigentlichen Kriegsschauplatz hinausgehend, befindet sich im Wandel.
Bereits heute findet Künstliche Intelligenz in militärischen Anwendungen vielseitigen Einsatz.1 Sie unterstützt bei der Aufklärung und Datenanalyse, bei der Entscheidungsfindung, Prozessoptimierung und Trainingssimulation sowie im Rahmen der Cyber- und Kommunikationssicherheit. Künstliche Intelligenz begünstigt das Big-Data-Management und fördert die schnelle Verarbeitung und präzisierte Auswertung der Daten. Soldatinnen und Soldaten führen Kameras mit, Drohnen und Satelliten klären auf und erfassen das Gefechtsfeld. Die unzähligen Datenmassen werden durch Analysetools zusammengeführt.2 So können Lagen schneller analysiert, Bedrohungen für die eigenen Streitkräfte früher erkannt und Schäden verringert oder abgewendet werden.3
Simulationen unterstützen bei der Vorbereitung strategischer Entscheidungen. KI ermöglicht es, historische Daten und Informationen besser zu berücksichtigen und diese für Simulationen von Szenarien zum Einsatz zu bringen.4 Die Genauigkeit, Effektivität und Effizienz der Einsatzsteuerung kann dadurch verbessert werden. Personelle und materielle Ressourcen können gezielter eingesetzt und Datenanalysten entlastet werden.
KI kann Bedarfe, materielle Engpässe, Einsparungspotenziale oder notwendige Wartungs- und Reparaturarbeiten an militärischem Gerät anhand des Verschleißes prognostizieren. Durch ihren Einsatz lassen sich Ressourcen sparen und logistische Planungsprozesse optimieren.
KI-gestützte Systeme kommen außerdem mehr und mehr bei der Entscheidungsfindung zum Einsatz und helfen der militärischen Führung. Komplexe Szenarien werden vereinfacht dargestellt und zeigen für die militärische Führung Handlungsoptionen auf, wobei diese durch Nutzung von Algorithmen bewertet werden. Aus den Bewertungen kann wiederum eine Handlungsempfehlung hervorgehen.
Training und die Kommunikationssicherheit
Bei Simulationen zu Trainingszwecken lassen sich dynamische Szenarien und Simulationen realgetreuer abbilden. Die Vorbereitung der Soldatinnen und Soldaten auf bestimmte komplexe Gefechtssituationen lässt sich so optimieren. Das deutsche Start-up-Unternehmen ARX Robotics entwickelt derzeit beispielsweise autonome unbemannte Bodensysteme zu Trainingszwecken. Die Systeme operieren entweder ferngesteuert oder vorprogrammiert im Schwarm und erzeugen Überraschungsmomente, denen die Streitkräfte in der Trainingssimulation ausgesetzt werden.
Durch maschinelles Lernen werden Waffensysteme trainiert, Aufgaben automatisiert und die Leistungsfähigkeit optimiert. Systeme können eigenständig Ziele identifizieren, Handlungsentscheidungen formulieren und diese ausführen. Darüber hinaus leistet Künstliche Intelligenz einen Beitrag zu einer verbesserten Cyber- und Kommunikationssicherheit. Mögliche Schwachstellen in der Software lassen sich leichter erkennen, Netzwerkstrukturen besser schützen und Cyberangriffe abwehren. Modelle, die mit Daten trainiert den Normalbetrieb eines IT--Systems erfassen, können, sobald es Abweichungen gibt, eine Warnung geben und eigenständig Sicherheitsvorkehrungen treffen.5 Die schnelle und automatisierte Detektion ungewöhnlicher Systemnutzungen und Datentransfers ermöglicht eine unmittelbare Reaktion auf unberechtigte Zu- und Angriffe. Der bisherige Einsatz und Nutzen von Künstlicher Intelligenz in militärischen Anwendungen geben einen kleinen Ausblick darauf, was künftig fester Bestandteil militärischer Operationen sein wird.
Autonome Waffensysteme und Schwarmtechnologien
Tödliche autonome Waffensysteme (Lethal Autonomous Weapon Systems, LAWS), auch als „Killer-Roboter“ bekannt, revolutionieren die Kriegsführung durch Präzision und Geschwindigkeit. Bei LAWS handelt es sich um Waffen, die ohne menschliches Eingreifen Ziele identifizieren und angreifen können. Sie kombinieren mehrere Anwendungen und Vorteile Künstlicher Intelligenz und ermöglichen Operationen ohne die Beeinträchtigung durch menschliche Ermüdungs- oder Ablenkungserscheinungen. Die Systeme können in gefährlichen Gebieten eingesetzt werden, wie auf kontaminierten Flächen, in verminten Regionen oder Gebieten mit extremen Wetterbedingungen.6 Sie haben die Fähigkeit, große Datenmengen in Echtzeit zu verarbeiten und sich schnell an dynamische Kampfszenarien anzupassen. LAWS nutzen fortschrittliche Sensoren und Algorithmen, um in komplexen Umgebungen effektiv zu agieren. Ob als Drohnen oder Roboter: Diese Systeme entwickeln sich kontinuierlich weiter.
Auch Schwarmtechnologien und -verbände werden in Zukunft auf dem Gefechtsfeld zum Einsatz kommen. Gestützt auf Künstliche Intelligenz, können verschiedene autonome Geräte wie Drohnen, Roboter oder Fahrzeuge – zu Land, zu Luft oder zu Wasser – durch Combat-Clouds synchronisiert werden.7 Die Synchronisation ermöglicht es diesen Systemen, dimensionsübergreifend – also etwa auf dem Land, in der Luft, im Weltraum und auf See – im Schwarm koordiniert zu agieren. Die Einheiten kommunizieren miteinander und benötigen keine zentrale Einsatzkoordination mehr. Dies führt nicht nur zu einer größeren Robustheit der Systeme, sondern auch zu einer Entlastung der Streitkräfte. Schwarmtechnologien beeinflussen alle Ebenen militärischer Planung und Operation und erhöhen den Automatisierungsgrad, wodurch der Einsatz vollautomatisierter Systeme möglich wird.
Der technologische Fortschritt lässt sich nicht aufhalten, und vollautomatisierte Waffensysteme werden das Gefechtsfeld der Zukunft dominieren. Eine Regulierung für den Einsatz von Künstlicher Intelligenz im militärischen Bereich gibt es bisher nicht.8 Internationale Diskussionen und Verhandlungen über entsprechende Regelungen stagnieren auf politischer Ebene.9 Es besteht weiterhin Unklarheit darüber, in welchem Umfang der Einsatz von KI in Waffensystemen reguliert und begrenzt werden soll.
Von der Künstlichen zur Killer-Intelligenz
Die Debatte konzentriert sich vor allem auf vollständig autonome Offensivwaffensysteme, die eigenständig Angriffs- und Tötungsentscheidungen treffen. Die Regulierung der Systeme ist schwierig, da eine klare Abgrenzung zwischen bedenklichen und unbedenklichen Formen der Autonomie notwendig ist. Wollen wir künftig eine Killer-Intelligenz auf dem Gefechtsfeld wirken lassen? Welchen Grenzen soll diese unterliegen, und welche Rolle spielt der Mensch? All dies sind bislang viel diskutierte, ungeklärte Fragen.
In westlichen Staaten wie den USA, Frankreich und Deutschland ist man sich uneinig über Definitionen und Umsetzung von Regelungen für KI in militärischen Anwendungen. Die Diskussion über die Ächtung von LAWS und die Definition von Human in the Loop10 sind ungelöst. Während sich Staaten der Europäischen Union (EU) eher auf die Regulierung des Einsatzes von LAWS fokussieren, tendieren die USA zu Regelungen für die Auswirkungen von LAWS.
Die USA priorisieren die Erforschung und Entwicklung von Künstlicher Intelligenz stark. Bei der militärischen Nutzung von KI soll sichergestellt werden, dass Bediener oder Befehlshaber von autonomen Waffensystemen die angemessene menschliche Urteilsfähigkeit über den Einsatz von Gewalt ausüben können. Die Definition lässt Spielraum für weitgehend autonome Einsätze, da hiermit nicht die manuelle menschliche Kontrolle gemeint ist, sondern eine umfassende menschliche Beteiligung an Entscheidungsprozessen, wie, wo, wann und warum eine Waffe eingesetzt wird. Obwohl Washington eine verantwortungsvolle Regulierung anstrebt, behält es sich die Entwicklung und den Einsatz vollständig autonomer Waffensysteme vor.
Die KI-Strategie des französischen Verteidigungsministeriums zielt darauf ab, durch den Einsatz von KI Geschwindigkeit, Aufklärung und Zielerfassung zu verbessern, während die Einhaltung des internationalen Rechts sichergestellt werden muss. Den Einsatz vollautomatischer Waffensysteme lehnt Paris aus ethischen und operativen Gründen ab. Zu groß sind die Bedenken bezüglich der Vorhersehbarkeit durch gegnerische KI und der Manipulierbarkeit von KI-Systemen. Dennoch wirkt man international darauf hin, Prinzipien für die Entwicklung und den Einsatz von tödlichen autonomen Waffensystemen zu definieren.
In Deutschland wird der Einsatz von Künstlicher Intelligenz in Waffensystemen kaum beachtet. Nach dem russischen Angriff auf die Ukraine ist das Interesse an moderner Ausrüstung der Bundeswehr zwar gestiegen, gleichzeitig fehlen weiterhin die entsprechende Expertise und eine strategische Auseinandersetzung mit dem Einsatz von KI in Waffensystemen und dessen Grenzen, die als (öffentliche) Diskussionsgrundlage dient. Trotz einzelner Überlegungen im Bundesministerium für Verteidigung gibt es keine umfassende Leitlinie, die die Mensch-Maschine-Interaktion umfasst.
Peking und Moskau hingegen haben kein Interesse an einer ernsthaften Regulierung. China verfolgt eine zweideutige Strategie zu LAWS, indem es zwar ein Verbot fordert, sich aber durch eine enge Definition der Systeme einer strengen Regulierung entzieht.11 Trotz dieser taktischen Definition investiert China stark in die Forschung und Entwicklung von Künstlicher Intelligenz. Die chinesische Modernisierungsstrategie umfasst dabei die Militarisierung der Vierten Industriellen Revolution, um fortschrittliche KI-basierte Waffensysteme zu entwickeln. So sollen die USA als führende Streitmacht abgelöst werden.
Moskau lehnt die Entwicklung und den Einsatz von LAWS nicht grundsätzlich ab. Putin erkannte früh das Potenzial von KI für militärische Zwecke und hat seit 2012 seine Verteidigungsstrategie auf Digitalisierung und KI-Entwicklung ausgerichtet, einschließlich einer Nationalen Strategie bis 2030 und erheblicher Investitionen.12 Trotz dieser Bemühungen und der Förderung von KI-Forschung, Steuererleichterungen für Unternehmen und neuer unbemannter Fahrzeugtechnologien bleibt Russland hinter dem Westen und China zurück und konzentriert sich auf die Verbesserung bestehender Systeme.
Minimierung ethischer und sicherheitspolitischer Risiken
Angesichts des drohenden menschlichen Kontrollverlusts bei vollautonomen Waffen sind allerdings klare und einheitliche internationale Regeln für den Einsatz von Künstlicher Intelligenz in Waffensystemen unabdingbar. Die Regulierung muss festlegen, ob die Reichweite des Einsatzes oder eher die Auswirkungen der KI zum Regelungsgegenstand werden sollen. Außerdem muss sie die verantwortungsvolle Nutzung der Technologie bestimmen und eine Risikoabwägung enthalten. Darüber hinaus müssen die Regelungen klare Begriffsbestimmungen und Definitionen für die Automatisierung von Waffensystemen und LAWS umfassen. Im Zuge der fortlaufenden technologischen Entwicklung muss der Rechtsrahmen regelmäßig und transparent kontrolliert und gegebenenfalls angepasst werden.
Die Vereinten Nationen (United Nations, UN) als Forum für globale Normfindungs- und Verständigungsprozesse sind für den Regulierungsprozess ungeeignet. Sie sind vorbelastet durch historisch gewachsene Machtprojektionen und Blockadehaltungen. Ein Regulierungsprozess auf UN-Ebene könnte zudem als Verhandlungsmasse für anders gelagerte UN-Verhandlungen dienen und noch schneller zu einer Verwässerung der Verhandlungsgegenstände führen. Ähnliches gilt für andere bestehende Strukturen wie die EU, NATO, G7 und G20 oder ASEAN (Association of Southeast Asian Nations). Das erste globale AI Safety Summit in London im November 2023, auf dem Forscher, Technologieunternehmen und führende KI-Nationen zusammenkamen, hat gezeigt, dass eine neue Initiative notwendig und vielversprechender ist.
In einem offenen Prozess sollen so viele Staaten wie möglich beteiligt werden. Eine klare Ächtung der unregulierten Verbreitung und des nicht geregelten Einsatzes von LAWS sollte zu Beginn einer solchen Initiative stehen, um die ethischen und sicherheitspolitischen Risiken zu minimieren. Dabei muss die Verantwortung für den Einsatz stets beim Menschen liegen, was durch das Konzept des Human in the Loop sichergestellt werden kann.
Transparente Regulierung von KI-Nutzung beim Militär
Der Erfolg dieser Initiative hängt entscheidend von der Beteiligung von mindestens einer Großmacht ab. Die USA würden für diese Rolle ideal geeignet sein. Durch ihre Führungsstellung können sie andere wichtige Akteure zur Teilnahme bewegen und somit den Grundstein für eine breite internationale Unterstützung legen. Angesichts eines drohenden „in diesen fänarios“ ist jedoch kurzfristig nicht absehbar, ob ein solcher Präsidentschaftswechsel der Initiative zuträglich wäre.
Es ist essenziell, dass die teilnehmenden Staaten eigene Strategien für den Einsatz von KI im Militär entwickeln und diese in die Diskussion einbringen. Die Initiative muss flexibel und dynamisch gestaltet sein, um auf technologische Fortschritte angemessen reagieren zu können. In regelmäßigen Überprüfungs- und Kontrollforen muss die gefundene Regulierung fortlaufend angepasst werden.
Zur Sicherstellung von Transparenz und Rechenschaft sind internationale Überwachungs- und Inspektionsmechanismen notwendig. Wissenschaft und Technologie sollten in den Regulierungsprozess einbezogen werden, sodass technische Möglichkeiten und Grenzen von KI-Systemen besser verstanden und berücksichtigt werden.
Praxisnahe Simulationen und Demonstrationen können genutzt werden, um umstrittene Einsatzszenarien zu veranschaulichen und die Diskussion realistischer zu gestalten. Zudem sind Investitionen in die Ausbildung und Schulung von Militärpersonal entscheidend, damit die Nutzer von KI-Systemen die technologischen, ethischen und rechtlichen Implikationen verstehen und somit die Einhaltung der Regelungen gefördert wird.
Das übergeordnete Ziel ist die Schaffung eines umfassenden, inklusiven und transparenten Regulierungsprozesses, der die verantwortungsvolle Nutzung von KI im Militär ermöglicht. Nur durch eine breite internationale Zusammenarbeit kann das Potenzial von KI im militärischen Bereich genutzt und können gleichzeitig die damit verbundenen Risiken minimiert werden. Die Verbote von Anti-Personenminen (Ottawa-Konvention, Inkrafttreten 1999, 164 Unterzeichner) und Streumunition (Oslo-Übereinkommen, Inkrafttreten 2010, 124 Unterzeichner) sind Beispiele, die Anlass zur Hoffnung geben, dass eine internationale Übereinkunft in einer neuen Initiative möglich ist. Die derzeitige Tendenz der weltweiten unkontrollierten Aufrüstung kann durchaus berechtigte Zweifel an einem baldigen Regelungsrahmen verbleiben lassen, jedoch könnten die durch eine „unkontrollierte KI“ drohenden Folgen menschheitsgefährdend sein und für den nötigen Handlungsdruck sorgen.
Die Zeit drängt, denn der technologische Fortschritt von KI lässt sich nicht aufhalten und macht nicht vor stockenden Regulierungsprozessen halt. Bald wird die Killer-Intelligenz zur Realität. Die (regulatorischen) Grenzen kann ihr nur der Mensch setzen.
1 NATO: Summary of the NATO Artificial Intelligence Strategy, 22.10.2021, www.nato.int/cps/en/natohq/official_texts_187617.htm [letzter
Zugriff: 02.07.2024].
2 BWI GmbH: Künstliche Intelligenz: BWI entwickelt Lösungen für die Bundeswehr, 2022, www.bwi.de/fileadmin/images/presse/20220124_
Presseinformation_KIBWI_entwickelt_Loesungen_fuer_die_Bundeswehr_1.0.pdf [letzter Zugriff: 02.07.2024].
3 Paul Scharre: Army of None. Autonomous Weapons and the Future of War, New York 2018, S. 152–174.
4 Bundeswehr: Künstliche Intelligenz in den Landstreitkräften. Ein Positionspapier des Amts für Heeresentwicklung, November 2019, S. 24–25,
www.bundeswehr.de/resource/blob/156024/d6ac452e72f77f3cc071184ae34dbf0e/downloadpositionspapier-
deutscheversion-data.pdf [letzter Zugriff: 02.07.2024].
5 Thomas Schmidt: „Künstliche Intelligenz in der Cybersicherheit – zwischen Hype und Notwendigkeit“, in: Wirtschaftsinformatik & Management, 12. Jg., Nr. 2, März 2020, S. 70–74, https://doi.org/10.1365/s35764-020-00244-4 [letzter Zugriff: 02.07.2024].
6 U.S. Department of Defense (DoD): Summary of the 2018 Department of Defense Artificial Intelligence Strategy, Harnessing AI to Advance Our Security and Prosperity, 2019, S. 15–18, https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARYOF-DOD-AI-STRATEGY.PDF [letzter Zugriff:02.07.2024].
7 Ruth A. David / Paul Nielsen: Report of the Defense Science Board Summer Study on Autonomy. Defense
Science Board. Accession Number: AD1017790, 2016, S. 65–69, https://apps.dtic.mil/sti/citations/AD1017790 [letzter Zugriff:
02.07.2024].
8 Gemäß Artikel 2 Absatz 3 der KI-Verordnung der Europäischen Union sind militärisch genutzte Systeme nicht vom Anwendungsbereich
der Regulierung umfasst.
9 Anja Dahlmann / Elisabeth Hoffberger-Pippan / Lydia Wachs: Autonome Waffensysteme und menschliche Kontrolle. Konsens über das Konzept, Unklarheit über die Operationalisierung, SWP-Aktuell/A 31, April 2021, https://doi.org/10.18449/2021A31 [letzter Zugriff:
02.07.2024].
10 „Human in the Loop“ (HITL) bezeichnet einen Ansatz in der Entwicklung und Nutzung automatisierter Systeme, bei dem der
Mensch aktiv in Entscheidungsprozesse (Überwachung und Eingriff, Training und Optimierung, Validierung und Verifikation) und die
Steuerung eingebunden ist.
11 Vincent Boulanin / Laura Bruun / Netta Goussac: Autonomous Weapon Systems and International Humanitarian Law: Identifying Limits and the Required Type and Degree of Human-Machine Interaction. iPRAW Report. 2017, S. 34 ff., www.sipri.org/sites/default/files/2021-06/2106_aws_and_ihl_0.pdf [letzter Zugriff: 02.07.2024].
12 Bernd Mewes: „Künstliche Intelligenz: Putin will Russland zur KI-Macht aufbauen“, in: heise online, 25.11.2023, www.heise.de/news/Kuenstliche-Intelligenz-Unter-Putin-soll-Russland-zur-KI-Macht-werden-9539907.html [letzter Zugriff: 02.07.2024].