Zurück zur Übersicht
Kleine AnfrageWahlperiode 21Beantwortet
Nationale und internationale Regulierung bei dem Einsatz von KI-Technologie, Drohnen und Loitering-Munition
(insgesamt 18 Einzelfragen)
Fraktion
AfD
Ressort
Bundesministerium der Verteidigung
Datum
01.04.2026
Aktualisiert
10.04.2026
BT21/471617.03.2026
Nationale und internationale Regulierung bei dem Einsatz von KI-Technologie, Drohnen und Loitering-Munition
Kleine Anfrage
Volltext (unformatiert)
Deutscher Bundestag Drucksache 21/4716
21. Wahlperiode 17.03.2026
Kleine Anfrage
Abgeordneten Gerold Otten, Udo Theodor Hemmelgarn, Dr. Malte Kaufmann,
Stefan Keuter, Heinrich Koch, Achim Köhler, Dr. Rainer Rothfuß, Uwe Schulz,
René Springer, Diana Zimmer und der Fraktion der AfD
Nationale und internationale Regulierung bei dem Einsatz von KI-Technologie,
Drohnen und Loitering Munition
Die Schaffung einheitlicher Standards für autonome Waffensysteme (LAWS),
Drohnen und Loitering Munition stellt die deutsche Diplomatie vor große
Herausforderungen.
Im Rahmen der UN-Waffenkonvention (CCW) verhandelt die Group of
Governmental Experts (GGE) über die Definition von LAWS und die
Notwendigkeit strikter Verbote (https://disarmament.unoda.org/en/updates/briefing-chair-c
cw-gge-laws-margins-first-committee). Doch der Prozess ist mühsam: Da
Entscheidungen im Konsens getroffen werden müssen, führen Blockaden durch
Staaten, die die Technologieführerschaft bei KI besitzen oder andere
strategische Schwerpunkte setzen, dazu, dass der Entscheidungsfindungsprozess
schleppend vorankommt. Im Fokus steht im Jahr 2026 die Ausarbeitung
konkreter Elemente für ein rechtliches Instrument, das der siebten
Überprüfungskonferenz vorgelegt werden soll.
Parallel dazu hat sich mit der REAIM (Responsible AI in the Military
Domain)-Serie eine agile Plattform jenseits der starren UN-Strukturen etabliert.
REAIM konzentriert sich auf die Erarbeitung von Normen und Best Practices.
Beim jüngsten Gipfel im Februar 2026 im spanischen A Coruña wurden die
sogenannten Pathways for Action weiter konkretisiert (https://www.exteriores.
gob.es/en/REAIM2026/Documents/REAIM%202026Prozent20Pathways%20to
%20Action.pdf).
Auffällig bleibt für die Fragesteller hierbei die Rolle der USA. Die aktuelle
National Defense Strategie sowie die am 9. Januar 2026 publizierte Artificial
Intelligence Strategy for the Department of War verabschieden sich
wortwörtlich von einem utopischen Idealismus und setzen an dessen Stelle einen
nüchternen Realismus (www.justsecurity.org/129936/third-reaim-summit/, hier auch
beide Dokumente).
Auf der Ebene der NATO steht weniger die Frage des Verbots als vielmehr die
operative Handlungsfähigkeit im Vordergrund. Das „Data and AI Review
Board“ (DARB) setzt verbindliche Standards für die Mitgliedstaaten, um die
Interoperabilität von KI-Systemen, Drohnenschwärmen und Loitering Munition
sicherzustellen. Ziel ist ein reibungsloser Datenaustausch im Netzwerk, der
gleichzeitig den ethischen Leitplanken des Bündnisses entspricht (www.nato.in
t/en/about-us/official-texts-and-resources/official-texts/2022/10/13/natos-data-a
nd-artificial-intelligence-review-board).
Die wirtschaftliche Dimension der Rüstungskontrolle wird primär über das
Wassenaar Arrangement gesteuert (www.wassenaar.org). Als zentrales
Instrument der Exportkontrolle regelt es den Transfer von Dual-Use-Gütern.
Gleichwohl befindet es sich in seiner schwersten Krise seit der Gründung. Das einst
schlagkräftige Instrument zur Kontrolle von Rüstungs- und Dual-Use-Gütern
leidet unter einer gefährlichen Mischung aus diplomatischer Lähmung
(Konsensprinzip) und technologischem Zeitdruck (Forschungssprünge bei
Quantencomputing und Agentic AI). Wichtige Akteure wie die USA und die EU warten
nicht mehr auf den internationalen Konsens. Sie haben 2025 begonnen,
unilaterale Listen einzuführen (https://eur-lex.europa.eu/legal-content/DE/TXT/?uri=
CELEX:32025R2003). Das Ergebnis ist nach Auffassung der Fragesteller ein
regulatorischer Flickenteppich, der Unternehmen vor enorme bürokratische
Hürden stellt.
Die Europäische Union möchte sich als moralische Instanz und Akteur
positionieren. Während die EU über den Europäischen Verteidigungsfonds (EDF)
ethische Mindeststandards für geförderte Rüstungsprojekte durchzusetzen
versucht, befindet sich der EU AI Act in der Umsetzungsphase (https://digital-strat
egy.ec.europa.eu/en/policies/regulatory-framework-ai). Dieser verpflichtet die
Mitgliedstaaten zur Wahrung von Menschenrechten und Rechtsstaatlichkeit
beim KI-Einsatz – eine Vorgabe, die zunehmend auch die Beschaffung von
Systemen für den Grenzschutz und die innere Sicherheit beeinflusst. Der
Bereich der Verteidigung wurde bewusst ausgespart.
Die kürzlich bekannt gegebene Beschaffung von Loitering Munition ist in den
Augen der Fragesteller ein bemerkenswerter Schritt, da sich die vorigen
Regierungskoalitionen über fast zwei Jahrzehnte sehr schwergetan haben, der
Bundeswehr bewaffnete Drohnen zur Verfügung zu stellen (www.hartpunkt.de/loite
ring-munition-bundeswehr/). Diese Beschaffung macht es für die Fragesteller
nötig, Aspekte der deutschen KI-Strategie zu erfragen. Die bisherige Position
ist in ihren Augen von Widersprüchlichkeiten geprägt. Einerseits strebt die
Bundesregierung eine internationale Vorreiterrolle bei ethischen Standards an,
andererseits erkennt sie die militärische Notwendigkeit an, im Wettbewerb mit
Systemen aus Russland oder China nicht den technologischen Anschluss zu
verlieren. Im nationalen Diskurs geht es um das Dogma der signifikanten
menschlichen Kontrolle, also des „Human in the Loop“-Paradoxons (ethische
Pflicht zur menschlichen Kontrolle bei gleichzeitig geforderter algorithmischer
Geschwindigkeit, siehe Jeffrey Shaffer/ University of Cincinnati www.linkedi
n.com/pulse/my-ai-diary-one-day-time-19-jeffrey-shaffer-uu5gc#:~:text=The%
20Paradox%20Unfolds:%20When%20Oversight,be%20more%20detrimental%
20than%20beneficial.), und einer Ethik- statt einer Counter-AI-Fokussierung.
Das, gepaart mit der bürokratischen Trägheit (im Gegensatz zu den
schnelllebigen KI-Zyklen), Forschungsengpässen (Zivilklauseln an Universitäten,
finanzielle Förderung von Forschung und Entwicklung) und Datenarmut durch
Datenschutz und mangelnder Digitalisierung, wird nach Ansicht der Fragesteller
mittelfristig eine große Herausforderung darstellen.
Wir fragen die Bundesregierung:
1. Gibt es auf Bundesebene Institutionen oder sind solche geplant, die
ebenso wie in Frankreich die Agentur AMIAD (Agence ministérielle pour l'
intelligence artificielle de défense) das vorhandene Know-how bündeln, um
KI zu skalieren und für die Streitkräfte zu operationalisieren?
2. Wie stellt die Bundesregierung sicher, dass in künftigen, aber heute bereits
absehbaren Szenarien (etwa dem massiven Ausbau von
Drohnenschwärmen, bei denen die signifikante menschliche Kontrolle nicht mehr
möglich ist), die Effizienz des Waffensystems zur Abwehr dieser Bedrohungen
nicht leidet, ist diese Gefahr nach Auffassung der Bundesregierung
gegeben, und wenn nein, warum nicht?
3. Wie nimmt die Bundesregierung ggf. Einfluss auf das Training von KI für
Systeme, die in der Bundeswehr genutzt werden bzw. erprobt oder
eingeführt werden sollen?
4. Wer trägt nach Ansicht der Bundesregierung die völkerrechtliche
Verantwortung, wenn ein autonom agierendes System aufgrund eines
Softwarefehlers oder „Halluzinationen“ der KI zivile Ziele angreift, ist dies nach
Kenntnis der Bundesregierung im Völkerrecht hinreichend geklärt, und
wer wird in solchen Fällen haftbar gemacht?
5. Wie wird gewährleistet, dass der Deutsche Bundestag beim möglichen
künftigen Einsätzen KI-gestützter Systeme im Ausland
(Krisenmanagement etc.) nicht nur über das Budget, sondern auch über die ethischen
Einsatzregeln (Rules of Engagement) im Detail entscheidet?
6. Verlangt die Bundeswehr von Herstellern wie Helsing oder Rheinmetall
die Offenlegung der Quellcodes, um sicherzustellen, dass keine
versteckten Funktionen oder „Backdoors“ in der KI existieren?
7. Wie verhindert Deutschland ggf., dass KI-gestützte Software für Drohnen,
die im Inland unter strengen Auflagen entwickelt wurde, durch „Dual
Use“-Lücken oder Software-Updates im Ausland ohne Kontrolle für
vollautonome Kriegsführung genutzt wird?
8. Welche Lehren zieht die Bundesregierung aus der jahrelangen Diskussion
um die Bewaffnung von Drohnen mit Blick auf die heutigen
Herausforderungen durch KI?
9. Nimmt die Bundeswehr regelmäßig eine Abwägung zwischen den Risiken
einer Nutzung von KI und einer Nichtnutzung von KI vor, was sind die
Leitlinien dieser Abschätzung?
10. Was sind die Eckpunkte der unverbindlichen „Best Practices“ bei der
Regulierung von LAWS?
11. Welche der auf dem REAIM-Gipfel im Februar 2026 in Spanien
verabschiedeten Punkte des „Pathways for Action“ will die Bundesregierung in
nationale Gesetze oder Bundeswehr-Vorschriften überführen?
12. Wann wird die „Governance für AI“ in der Bundeswehr vorliegen, und in
welchen Abständen wird diese Governance überprüft und aktualisiert?
13. Welchen Umfang (Seiten) wird dieses Dokument („Governance für AI“)
im Vergleich zum entsprechenden US-Strategiepapier (https://media.defen
se.gov/2026/Jan/12/2003855671/-1/-1/0/ARTIFICIAL-INTELLIGENCE-
STRATEGY-FOR-THE-DEPARTMENT-OF-WAR.PDF) haben, und
wenn es sich stark unterscheidende Umfänge geben sollte, warum dieser
auffallende Unterschied in der Seitenzahl, und welche inhaltlichen Gründe
gibt es?
14. Wie bewertet die Bundesregierung das Risiko, dass durch die massive
Beschaffung von KI-unterstützter Loitering Munition durch NATO-Staaten
eine neue Rüstungs- und damit eine potenzielle Eskalationsspirale in der
ungesteuerten KI-Rüstung (z. B. mit China oder Russland) ausgelöst wird
(https://wehrtechnik.info/loitering-munitions-kamikazedrohnen/)?
15. Werden die Trainingsdaten für KI-Algorithmen (z. B. von Helsing oder
Stark Defence), die von den deutschen Streitkräften derzeit getestet oder
künftig verwendet werden, innerhalb Deutschlands gespeichert und
kontrolliert, oder fließen diese Daten in Cloud-Strukturen von Nicht-EU-
Partnern ab?
16. Wie stellt die Bundesregierung sicher, dass durch die technische
Angleichung an US-amerikanische oder britische KI-Standards die bisher
angewandten nationalen ethischen Einsatzkriterien (z. B. das Verbot
vollautonomer Angriffe) nicht technisch „ausgehebelt“ werden?
17. Durch wen wird Deutschland bei den Verhandlungen bei den UN (Group
of Governmental Experts) sowie bei REAIM-Gipfeln sowie auf der
NATO-Ebene vertreten, auf welcher Ebene sind diese Gespräche
angebunden?
18. Wie stellen das Auswärtige Amt und das Bundesministerium der
Verteidigung ein Höchstmaß an Kohärenz sicher, wenn Deutschland in Genf (UN)
für Verbote eintritt, während man gleichzeitig auf Ebene der NATO
technische Standards für genau diese autonomen Systeme mitentwickelt?
Berlin, den 16. März 2026
Dr. Alice Weidel, Tino Chrupalla und Fraktion
Gesamtherstellung: H. Heenemann GmbH & Co. KG, Buch- und Offsetdruckerei, Bessemerstraße 83–91, 12103 Berlin, www.heenemann-druck.de
Vertrieb: Bundesanzeiger Verlag GmbH, Postfach 10 05 34, 50445 Köln, Telefon (02 21) 97 66 83 40, Fax (02 21) 97 66 83 44, www.bundesanzeiger-verlag.de
ISSN 0722-8333
Ähnliche Kleine Anfragen
Dekolonialisierung als Instrument der Außenpolitik am Beispiel Russlands und des Westens
AfD01.04.2026
Förderung von zivilgesellschaftlichen Organisationen in Marokko durch das Bundesministerium für wirtschaftliche Zusammenarbeit und Entwicklung
AfD01.04.2026
Rechtssichere Umsetzung von § 28 Raumordnungsgesetz (Nachfrage zur Antwort der Bundesregierung auf die Kleine Anfrage auf Bundestagsdrucksache 21/4397)
AfD01.04.2026
Auswirkungen der geplanten EU-Verordnung zu neuen genomischen Techniken (NGT) auf Landwirtschaft, Pflanzenzüchtung und mittelständische Saatgutunternehmen in Deutschland
AfD09.04.2026