
Das deutsche Rüstungsstartup Helsing gehört mit seiner unbemannten Kampfdrohne CA-1 Europa zu den bekanntesten Entwicklern autonomer Waffensysteme. (Bild: Helsing)
Jede neue Technologie muss damit rechnen, für den Wehrdienst rekrutiert zu werden. Viele werden sogar explizit für kriegerische Zwecke erfunden, ehe sie, falls wir Glück haben, der Gesellschaft auch einen zivilen Dienst leisten – wie etwa der Ortungdienst GPS oder das Internet selbst, das aus dem ARPANET erwachsen ist.
Künstliche Intelligenz, kurz KI, brauchte Jahrzehnte, um robust genug zu werden für den militärischen Einsatz. Nun aber revolutioniert die Technologie die gesamte Rüstungsindustrie – von der Logistik über Assistenzsysteme, die in Echtzeit Daten auswerten, um Angriffsziele vorzuschlagen, bis hin zu autonomen Waffensystemen, die ohne menschliche Unterstützung operieren und eigenständig entscheiden, wo, wie und wen sie töten.
Umgangssprachlich werden solche Systeme gern als „Killer-Roboter“ bezeichnet; in der Wissenschaft tragen sie das Kürzel LAWS: „Lethal Autonomous Weapons Systems“. Und es sind genau diese KI-Systeme, die Experten die größten Sorgen bereiten.

Mein Interview mit Stuart Russell, erschienen in der deutschen Ausgabe der MIT Technology Review.
„Als würden wir Atomwaffen im Supermarkt anbieten“
„Ein vollständig autonomes Waffensystem ist in der Lage, seine Ziele selbst zu identifizieren“, sagt der bekannte Computerwissenschaftler Stuart Russell (UC Berkeley). „Das bedeutet, eine einzelne Person kann eine Million Waffen gegen eine ganze Bevölkerung einsetzen.“
In einem Interview, das ich 2023 mit ihm für die deutsche Ausgabe der MIT Technology Review geführt habe, verglich Russell die mögliche Vernichtungskraft von Killer-Drohnen und anderen autonomen Waffen mit der Bedrohung durch Atombomben: „Es ist fast so, als würden wir beschließen, die Kontrolle über Atomwaffen aufzugeben und sie in jedem Supermarkt anzubieten.“
Wie lässt sich diese Gefahr eindämmen? Gibt es einen Weg, die Verbreitung von selbstständig tötenden Waffen zu kontrollieren – auch wenn sich einfache Killer-Drohnen vergleichsweise billig und ohne großen Aufwand herstellen lassen? Obwohl das Wissen offen im Internet herumliegt und leistungsfähige KI-Modelle als Open-Source-Systeme gratis verfügbar sind?

Mein Artikel zur Frage, wie sich die Verbreitung von KI-gestützten, autonomen Waffensystemen kontrollieren lässt, erschienen in der deutschen MIT Technology Review, Ausgabe 1/2026.
Dieser Frage bin ich in einem weiteren Beitrag für die deutsche MIT Technology Review nachgegangen, der in Ausgabe 1/2026 erschienen ist. Meine Recherche führte mich zu der Künstlerin Sarah Ciston, die mit ihrem preisgekrönten Projekt der AI War Cloud die oft verborgenen Querverbindungen zwischen Rüstungs-Startups, Investoren und Technik-Giganten wie Amazon oder Google vor Augen führt.
Dazu kamen Gespräche mit der deutschen Politikwissenschaftlerin Elke Schwarz, die sich an der Queen Mary University in London intensiv mit Militärtechnologie auseinandersetzt; Vincent Boulanin, der beim schwedischen Friedensforschungs-Institut SIPRI das Programm zu Künstlicher Intelligenz leitet; und dem australischen Computerwissenschaftler Toby Walsh, der sich – wie auch Stuart Russell – seit Jahren für eine Ächtung von LAWS durch die Vereinten Nationen einsetzt.

Mein Artikel zeigt unter anderem, wie schnell sich die Rüstungsindustrie aktuell weiterentwickelt – nicht zuletzt, weil Startups wie Helsing, Palantir oder Anduril auf den Markt drängen, ohne Aufträge von Ministerien abzuwarten. Aber auch, weil die Kriege in der Ukraine und im Gaza-Streifen dazu geführt haben, dass die junge, oft noch unreife Technik bereits im Ernstfall genutzt wird. „Viele Hersteller werden mit dem Slogan werben: ,Kampferprobt in der Ukraine‘“, sagt Toby Walsh voraus.
Den Artikel gibt es entweder online zu lesen, auf der Website der deutschen Technology Review, oder klassisch auf Papier: als Teil der Titelstrecke „Der neue Krieg“, die das Thema KI in Waffensystemen aus verschiedenen Blickwinkeln beschreibt.

