Einleitung
Künstliche Intelligenz (KI) ist im 21. Jahrhundert zu einer Schlüsseltechnologie geworden, deren Anwendungen von Gesundheitswesen und Handel bis hin zur wissenschaftlichen Forschung reichen. Allerdings können die gleichen Algorithmen, die medizinische Diagnosen ermöglichen, auch autonome Waffen steuern, und dieselben maschinellen Lernsysteme, die Empfehlungssysteme anleiten, können militärische Ziele identifizieren. Diese duale Eigenschaft, also die Möglichkeit, dass für zivile Zwecke entwickelte Technologien für militärische Anwendungen umfunktioniert werden, hat KI zu einem zentralen Element der sich wandelnden globalen Sicherheitsdynamik gemacht.
Die strategischen Implikationen sind erheblich. China betrachtet KI als entscheidend für die militärische Modernisierung, wobei die Volksbefreiungsarmee plant, bis 2030 Fähigkeiten in den Bereichen „algorithmische Kriegsführung“ und „netzwerkzentrierte Kriegsführung“ bereitzustellen (Department of Defense, 2024). Gleichzeitig haben militärische Konflikte in der Ukraine und im Gazastreifen den operativen Einsatz von KI-gesteuerten Zielsystemen demonstriert. Während Nationen erhebliche Ressourcen in die Entwicklung militärischer KI investieren, stellt sich eine entscheidende Frage: Können die Sicherheitsvorteile von Dual-Use-KI-Technologien realisiert werden, ohne schwerwiegende humanitäre Folgen zu verursachen?
Die Umkehrung: Kommerzielle Innovation treibt die militärische Modernisierung
Historisch waren es militärische Forschungen und Entwicklungen, die technologische Innovationen vorantrieben, wobei zivile Anwendungen als sekundäre Vorteile entstanden sind, ein Phänomen, das als „Spin-off“ bezeichnet wird. Das Internet, GPS und Mikrowellenöfen haben alle ihren Ursprung in Verteidigungslaboren. Diese Dynamik hat sich jedoch umgekehrt. Kommerziell entwickelte Technologien treten nun zunehmend in den Verteidigungssektor über, wobei Militärs zunehmend auf Technologien angewiesen sind, die ursprünglich für den kommerziellen Markt entwickelt wurden.
Diese Umkehrung hat erhebliche Auswirkungen auf die globale Sicherheit. Anders als während des Kalten Krieges, als die Vereinigten Staaten und die Sowjetunion die Entwicklung von Atomwaffen durch staatliche Programme kontrolliert haben, erfolgt die KI-Innovation hauptsächlich durch private Unternehmen, Technologiefirmen und universitäre Forschungsinstitutionen. Organisationen wie DARPA beeinflussen die Entwicklung globaler aufkommender Technologien, wobei ihre Projekte häufig Maßstäbe für Forschungs- und Entwicklungsbemühungen weltweit setzen (Defense Advanced Research Projects Agency, 2024). Diese Verbreitung technologischer Fähigkeiten erschwert traditionelle Rüstungskontrollrahmen, die auf staatlich kontrollierter militärischer Produktion basieren.
Das Ausmaß der Investitionen ist erheblich. Die nicht klassifizierten KI-Investitionen des US-Verteidigungsministeriums stiegen von etwa 600 Millionen Dollar im Jahr 2016 auf rund 1,8 Milliarden Dollar im Jahr 2024, mit mehr als 685 aktiven KI-Projekten (Defense One, 2024). Die Ausgaben Chinas könnten diesen Betrag übersteigen, wobei genaue Daten aufgrund der Intransparenz des chinesischen Verteidigungsbudgets nicht verfügbar sind. Europa verfolgt vergleichbare Investitionen, wobei die EU 1,5 Milliarden Euro für verteidigungsbezogene Forschung und Entwicklung im Rahmen von Initiativen wie dem Europäischen Verteidigungsfonds bereitstellt.
Dual-Use-Anwendungen in der zeitgenössischen Kriegsführung
Die militärischen Anwendungen von KI erstrecken sich über das gesamte Spektrum der Kriegsführung, von der strategischen Planung bis zur taktischen Ausführung. Zu den aktuellen Einsätzen gehören:
-
- Aufklärung, Überwachung und Erkundung (ISR – Intelligence, Surveillance, and Reconnaissance): KI-Systeme verarbeiten große Mengen an Sensordaten, Satellitenbildern und Nachrichtenaufklärung, um Muster zu erkennen, die über die menschlichen Analysefähigkeiten hinausgehen. Im Jahr 2024 erzielten „Chinas kommerzielle und akademische KI-Sektoren Fortschritte bei großen Sprachmodellen (LLMs) und LLM-basierten Denkmodellen, wodurch die Leistungsdifferenz zwischen den chinesischen und den führenden US-Modellen verringert wurde“, was eine ausgeklügeltere Geheimdienstanalyse ermöglichtt hat (Department of Defense, 2024).
- Autonome Waffensysteme: Autonome Waffen können Ziele mit minimaler menschlicher Aufsicht erkennen, verfolgen und angreifen. Im Krieg in der Ukraine machen Drohnen inzwischen etwa 70-80 % der Verluste aus (Center for Strategic and International Studies, 2025). Ukrainische Offizielle sagten voraus, dass KI-gesteuerte Drohnen mit First-Person-View eine Trefferrate von etwa 80 % erreichen könnten, im Vergleich zu 30-50 % bei manuell gesteuerten Systemen (Reuters, 2024).
- Vorausschauende Instandhaltung und Logistik: Die US-Luftwaffe setzt KI in ihrem Condition-Based Maintenance Plus-Programm für F-35-Kampfjets ein, um Sensordaten zu analysieren und Systemausfälle vor deren Auftreten vorherzusagen, wodurch Ausfallzeiten und Betriebskosten reduziert werden.
- Befehl und Kontrolle: KI unterstützt Militärkommandanten bei der Verarbeitung von Gefechtsinformationen und der Bewertung von Optionen mit Geschwindigkeiten, die die menschliche Kapazität übersteigen. Das Projekt „Convergence“ integriert KI, fortschrittliche Netzwerke, Sensoren und Automatisierung in allen Kriegsbereichen (Land, Luft, See, Cyber und Weltraum), um synchronisierte, Echtzeit-Entscheidungsfindung zu ermöglichen.
- Cyber-Operationen: KI unterstützt sowohl offensive als auch defensive Cyber-Fähigkeiten, von automatisierter Schwachstellenentdeckung über Malware-Erkennung bis hin zu ausgeklügelten Social Engineering-Kampagnen.
Gaza und Ukraine: KI im modernen Konflikt
Jüngste Konflikte haben operative Demonstrationen der militärischen Anwendungen von KI sowie der damit verbundenen humanitären Kosten geliefert. Das israelische Lavender-System soll bis zu 37.000 potenzielle, mit Hamas verbundene Ziele identifiziert haben, wobei Quellen von Fehlerquoten von nahezu 10 Prozent berichten (972 Magazine, 2024). Ein israelischer Geheimdienstoffizier erklärte, die IDF habe „Ziele in Wohnhäusern ohne Zögern bombardiert – als erste Option. Es ist viel einfacher, das Zuhause einer Familie zu bombardieren“ (972 Magazine, 2024). Das System beschleunigte Luftangriffe, trug jedoch auch zu zivilen Opfern bei und wirft damit Fragen nach der Rechenschaftspflicht bei algorithmischen Entscheidungen auf.
Das Design des Systems beinhaltet explizite Abwägungen: Geschwindigkeit und Umfang wurden gegenüber Genauigkeit priorisiert. Laut Quellen, die von 972 Magazine interviewt wurden, gautorisierte das Militär die Tötung von bis zu 15 oder 20 Zivilisten für jeden rangniedrigen Hamas-Kämpfer, den „Lavender“ markierte. In einigen Fällen wurden der Tod von mehr als 100 Zivilisten genehmigt, um einen einzigen hochrangigen Kommandeur zu töten (972 Magazine, 2024). Grundlage von Modellen, die auf kommerziellen Daten trainiert wurden, fehlt die Urteilsfähigkeit, die Menschen besitzen. Wenn diese jedoch auf militärische Zielmarkierungen angewendet werden, führen falsch-positive Ergebnisse zu zivilen Toten. Daten, die aus WhatsApp-Metadaten, Google-Fotos und anderen kommerziellen Plattformen stammen, erstellten Zielprofile basierend auf Mustern, die möglicherweise nicht dem Status eines Kämpfers entsprechen.
Die Ukraine hat unterschiedliche Ansätze implementiert, indem sie KI zur Koordination von Drohnenschwärmen und zur Verbesserung der Verteidigungsfähigkeiten gegen einen zahlenmäßig überlegenen Gegner einsetzt. Die stellvertretende Verteidigungsministerin der Ukraine, Kateryna Chernohorenko, erklärte, dass „derzeit mehrere Dutzend Lösungen auf dem Markt“ von ukrainischen Herstellern für KI-unterstützte Drohnensysteme an die Streitkräfte geliefert werden (Reuters, 2024). Die Ukraine produzierte 2024 etwa 2 Millionen Drohnen, wobei KI-fähige Systeme eine Erfolgsquote von 70 bis 80 Prozent bei der Zielerfassung erzielten, im Vergleich zu 10 bis 20 Prozent für manuell gesteuerte Drohnen (Center for Strategic and International Studies, 2025). Beide Seiten des Konflikts haben KI-gesteuerte Zielmarkierungssysteme entwickelt, was zu einem operativen Wettrüsten führt, mit unmittelbaren Folgen auf dem Schlachtfeld.
Zivile Schäden: Technische und rechtliche Einschränkungen
Der Einsatz teilautonomer militärischer Systeme wirft humanitäre Bedenken auf, die über Fragen der technischen Zuverlässigkeit hinausgehen. Die Unfähigkeit von KI, das Prinzip der Unterscheidung zu gewährleisten – also Zivilpersonen zu schützen, indem sie diese im Einklang mit dem humanitären Völkerrecht von Soldaten unterscheiden –, stellt eine grundlegende Herausforderung dar.
Aktuellen KI-Systemen fehlen mehrere wesentliche Fähigkeiten, die für den legalen Krieg erforderlich sind:
-
- Kontextuelles Verständnis: KI kann die komplexen sozialen, kulturellen und situativen Faktoren, die den Status eines Kämpfers bestimmen, nicht erfassen. Eine Person, die eine Waffe trägt, könnte ein Kämpfer, ein Zivilist, der sein Haus verteidigt, oder ein Hirte, der sein Vieh schützt, sein.
- Verhältnismäßigkeitsbewertung: Internationales humanitäres Recht erfordert, dass militärische Angriffe keine übermäßigen Schäden an Zivilisten verursachen. Human Rights Watch stellte fest, dass es zweifelhaft sei, ob robotergesteuerte Systeme solche nuancierten Bewertungen vornehmen können (Human Rights Watch, 2024).
- Moralisches Urteil: Maschinen fehlen die Fähigkeit zu Mitgefühl, Barmherzigkeit oder das Verständnis von menschlicher Würde, Qualitäten, die historisch als Schutz vor Kriegsverbrechen dienten.
- Verantwortlichkeit: Bei autonomen Waffensystemen wird die Verantwortung auf Programmierer, Hersteller und Betreiber verteilt, was es erschwert, eine individuelle Verantwortlichkeit festzustellen. Wie ein Experte beobachtete: „Wenn KI, maschinelles Lernen und menschliches Denken ein enges Ökosystem bilden, ist die Fähigkeit zur menschlichen Kontrolle begrenzt. Menschen neigen dazu, allem zu vertrauen, was Computer sagen, besonders wenn sie zu schnell arbeiten, um mit ihnen Schritt zu halten“ (The Conversation, 2024).
Die Risiken erstrecken sich auf bestimmte Bevölkerungsgruppen. Autonome Waffensysteme, die auf Daten trainiert wurden, die vorwiegend männliche Kämpfer in historischen Aufzeichnungen enthalten, könnten algorithmische Vorurteile erzeugen. Im Fall von Lavender zeigt eine Analyse, dass „eine der Schlüsselgleichungen ‚männlich gleich Militant‘ ist“, was an den Ansatz der Obama-Administration bei Drohnenkriegsoperationen erinnert (The Conversation, 2024). Farbige Gemeinschaften und muslimische Bevölkerungsgruppen sind aufgrund historischer Muster der diskriminierenden Gewaltanwendung besonders gefährdet.
Exportkontrollen und Herausforderungen bei der Technologieübertragung
Angesichts der strategischen Bedeutung von KI haben Regierungen Exportkontrollregelungen eingeführt. Das Bureau of Industry and Security der USA verlangt jetzt Lizenzen für den Export fortschrittlicher Rechenchips und von Modellgewichten für KI-Modelle und knüpft dies an Sicherheitsauflagen, um die sichere Speicherung der fortschrittlichsten Modelle zu gewährleisten.
Diese Kontrollen stehen vor grundlegenden Spannungen. Zu weit gefasste Beschränkungen könnten legitime Forschungs- und kommerzielle Innovationen behindern. Analysen deuten darauf hin, dass, wenn KI-Technologie zu stark kontrolliert wird, US-amerikanische Universitäten Schwierigkeiten bei der Durchführung von KI-Forschung bekommen könnten, was zu einem weniger robusten US-amerikanischen KI-Ökosystem führen würde. Unzureichende Kontrollen ermöglichen es Gegnern, hochentwickelte Fähigkeiten zu erwerben.
Die Wirksamkeit von diesen Exportkontrollen bleibt unsicher. 2024 wurden Hunderttausende Chips im Wert von Millionen Dollar über Briefkastenfirmen, wechselnde Vertriebskanäle und Techniken wie falsch beschriftete Pakete nach China geschmuggelt (Oxford Analytica, 2025). Chinas DeepSeek-Modelle, die Berichten zufolge eine Leistung erreichen konnten, die an US-Systeme heranreicht, sollen demnach mit Chips trainiert worden sein, die Exportbeschränkungen umgehen konnten.
Internationale Governance: Fragmentierung und konkurrierende Regelwerke
Die internationale Gemeinschaft hat Schwierigkeiten, einheitliche Governance-Regelwerke für duale KI-Nutzung zu entwickeln. Anstatt eines einheitlichen globalen Regulierungsansatzes hat sich eine Sammlung nationaler Taktiken, multilateraler Abkommen, hochrangiger Gipfel, Erklärungen, Rahmenwerke und freiwilliger Verpflichtungen herausgebildet.
Mehrere internationale Foren haben die KI-Governance behandelt:
-
- Der UN-Generalsekretär gründete einen KI-Beirat und rief zu einem rechtsverbindlichen Vertrag auf, der autonome Waffensysteme ohne menschliche Kontrolle verbieten soll, wobei dieser bis 2026 abgeschlossen werden soll.
- Die Regierungsexpertengruppe zu letalen autonomen Waffensystemen (Group of Governmental Experts on Lethal Autonomous Weapons Systems) führt seit 2013 im Rahmen der Konvention über bestimmte konventionelle Waffen (Convention on Certain Conventional Weapons) Gespräche, jedoch mit nur begrenzten konkreten Fortschritten.
- Die NATO veröffentlichte 2024 eine überarbeitete KI-Strategie, die Standards für den verantwortungsvollen Einsatz und die beschleunigte Einführung in militärische Operationen festlegt.
- Das KI-Gesetz der EU, das 2023 verabschiedet wurde, schließt ausdrücklich militärische Anwendungen und nationale Sicherheit von seinem Geltungsbereich aus.
Diese fragmentierte Landschaft spiegelt geopolitische Spaltungen wider. Die wahrgenommene zentrale Bedeutung von KI für den Wettbewerb hat dazu geführt, dass sich die USA als führende Kraft ideologisch gleichgesinnter Länder positionieren, auch in sicherheitspolitischer Abgrenzung zu China. China fördert seine eigene Governance-Vision durch Initiativen wie die Belt and Road und exportiert Technologie-Standards zusammen mit Infrastruktur.
Strategische Stabilitätsimplikationen
KI schafft Herausforderungen für die strategische Stabilität. Autonome Waffen ermöglichen es, in vielen Rollen auf dem Schlachtfeld Maschinen anstelle menschlicher Soldaten einzusetzen. Dadurch sinken die menschlichen Kosten, und damit auch die politischen Kosten offensiver Kriegsführung. Dies könnte die Häufigkeit von Konflikten zwischen ebenbürtigen Gegnern erhöhen, weil beide Seiten glauben, ohne nennenswerte eigene Verluste im Inland siegen zu können. Bei Konflikten zwischen nicht ebenbürtigen Gegnern verringern geringere Verluste zudem den innenpolitischen Widerstand gegen Angriffskriege.
Die Folgen reichen über die konventionelle Kriegsführung hinaus. Bewaffnete, vollständig autonome Drohnenschwärme könnten massenhaften Schaden mit einem Mangel an menschlicher Kontrolle verbinden und so potenziell zu Massenvernichtungswaffen werden, die mit kleinen Nuklearwaffen vergleichbar wären. Die technischen Hürden für solche Systeme sinken, da zentrale Komponenten zunehmend kommerziell verfügbar werden.
KI erschwert zudem die nukleare Stabilität. Fortschritte bei KI-gestützten Sensoren und der Datenverarbeitung könnten Zweitschlagfähigkeiten untergraben, indem sie die Entdeckung mobiler Raketenwerfer und U-Boote verbessern. Diese Erosion der garantierten Vergeltung könnte zu einem Anreiz für Erstschläge in Krisenzeiten führen. Gleichzeitig schaffen KI-Systeme, die die nukleare Kommando- und Kontrollstruktur verwalten, Risiken für Unfälle, Fehlberechnungen oder unbefugte Starts.
Ethische Rahmenbedingungen und ihre Einschränkungen
Die Integration von KI in der Kriegsführung stellt traditionelle ethische Rahmenbedingungen auf die Probe. Die Theorie des gerechten Krieges (Just War Theory) erfordert, dass Kämpfer moralische Verantwortung für ihre Handlungen tragen, die Fähigkeit besitzen, Soldaten von Zivilisten zu unterscheiden, und verhältnismäßige Gewalt anwenden. Automatisierungs-Bias und technologische Vermittlung schwächen die moralische Handlungsfähigkeit der Benutzer von KI-unterstützten Zielsystemen, was ihre Fähigkeit zur ethischen Entscheidungsfindung verringert.
Wenn Betreiber Zielentscheidungen über Bildschirme treffen, die algorithmische Empfehlungen anzeigen, statt sich auf direkte Beobachtung zu stützen, vergrößert sich die psychologische Distanz. Diese Vermittlung riskiert, das Töten in einen bürokratischen Prozess zu verwandeln. Der Nutzer wird weniger zu einem moralischen Akteur, der Entscheidungen trifft, sondern vielmehr zu einem Techniker, der algorithmische Vorschläge genehmigt oder ablehnt.
Darüber hinaus beeinflussen die Dynamiken der Industrie, insbesondere die Risikokapitalfinanzierung, die Diskurse rund um militärische KI und prägen die Wahrnehmung einer verantwortungsvollen Nutzung von KI in der Kriegsführung. Wenn kommerzielle Anreize mit militärischen Anwendungen in Einklang stehen, verschwimmen die Grenzen zwischen verantwortungsvoller Innovation und rücksichtsloser Verbreitung. Unternehmen, die KI für den zivilen Markt entwickeln, stehen unter Druck, sich in die Verteidigungsindustrie auszudehnen, oft ohne ausreichende ethische Überlegungen.
Fazit
Dual-use KI-Technologien bieten sowohl Chancen als auch Risiken für die internationale Sicherheit. Ein möglicher Verlauf führt zu einer Normalisierung der algorithmischen Kriegsführung im großen Maßstab, zu einem Wettrüsten autonomer Waffen, das die strategische Stabilität untergräbt, und zu unzureichender internationaler Governance, die zu zivilen Opfern führt. Ein alternativer Verlauf könnte internationale Zusammenarbeit umfassen, die die gefährlichsten Anwendungen einschränkt und gleichzeitig nützliche Anwendungen ermöglicht.
Die Fähigkeiten der KI entwickeln sich rasant weiter, und eine breite Verbreitung autonomer Waffensysteme würde eine politische Kehrtwende erheblich erschweren. Die Herausforderung ähnelt der nuklearen Nichtverbreitung, vollzieht sich jedoch in einem schnelleren Tempo – angetrieben durch kommerzielle Anreize statt durch staatlich kontrollierte Programme.
Da KI eine Dual-Use-Technologie ist, können technische Fortschritte sowohl wirtschaftliche als auch sicherheitspolitische Vorteile bieten. Diese Realität bedeutet, dass ein einseitiger Verzicht demokratischer Nationen den autoritären Wettbewerbern Vorteile verschaffen würde. Ein unkontrollierter Wettbewerb birgt jedoch Risiken für alle Beteiligten.
Konkretes Handeln ist von verschiedenen Akteuren erforderlich. Staaten müssen multilaterale Vereinbarungen durch Foren wie das UN-Übereinkommen über bestimmte konventionelle Waffen stärken, um verbindliche Beschränkungen für autonome Waffen ohne bedeutsame menschliche Kontrolle festzulegen. NATO und regionale Sicherheitsbündnisse sollten ethische KI-Standards harmonisieren und Verifikationsmechanismen für den Einsatz von militärischer KI entwickeln. Militärische Institutionen müssen verbindliche Anforderungen für den „Menschen im Entscheidungsprozess“ (Human-in-the-Loop) bei autonomen tödlichen Systemen einführen und klare Verantwortlichkeiten für KI-gesteuerte Zielentscheidungen festlegen.
Technologieunternehmen, die Dual-Use-KI-Systeme entwickeln, tragen die Verantwortung für die Implementierung ethischer Schutzmaßnahmen und für die Durchführung gründlicher Bedrohungsanalysen vor der kommerziellen Veröffentlichung. Branchenallianzen sollten Transparenzstandards für militärische KI-Anwendungen festlegen und unabhängige Prüfmechanismen schaffen. Universitäten und Forschungseinrichtungen müssen KI-Ethische Grundsätze und internationales humanitäres Recht in technische Ausbildungsprogramme integrieren.
Exportkontrollregime erfordern eine enge Abstimmung zwischen den Vereinigten Staaten, der EU und verbündeten Staaten, um regulatorische Ausweichstrategien zu verhindern, ohne dabei durch Übermaß legitime Forschung abzuwürgen. Demokratische Regierungen sollten vorangehen, indem sie zeigen, dass militärische KI innerhalb strenger ethischer und rechtlicher Leitplanken entwickelt werden kann, und so Maßstäbe setzen, die legitime sicherheitspolitische Anwendungen klar von destabilisierender Waffenproliferation abgrenzen.
Wie der österreichische Außenminister Alexander Schallenberg feststellte, stellt dies den „Oppenheimer-Moment“ der aktuellen Generation dar, der erkennt, dass Dual-Use-KI, wie Atomwaffen, eine Technologie ist, deren militärische Anwendungen kollektive Zurückhaltung erfordern.
Die politischen Entscheidungen, die in den nächsten Jahren getroffen werden, werden langfristige Auswirkungen haben. Sie werden darüber entscheiden, ob KI ein Werkzeug für den menschlichen Fortschritt oder ein Instrument der algorithmischen Kriegsführung wird. Die Technologie existiert; der politische Rahmen muss noch etabliert werden. Die Akteure sind identifiziert; die Frage ist, ob sie den politischen Willen haben, zu handeln, bevor die Verbreitung irreversibel wird.
