24. Jahrgang | Nummer 7 | 29. März 2021

Autonomer Krieg

von Sarcasticus

Wer einmal einen Computer bedient hat,
wer sich mit Abstürzen und vergrützten Updates
herumgeschlagen hat, der kann die Vorstellung
nur grotesk finden, dass Maschinen
über Leben und Tod entscheiden.

Christoph Seidler
DER SPIEGEL

Die enormen technologischen Fortschritte,
die in den letzten Jahren in den Bereichen der Robotik
und der künstlichen Intelligenz (KI) erzielt wurden,
haben die […] Vorstellung autonom agierender Waffen
[…] an die Schwelle zur konkreten Umsetzung gerückt.

Reinhard Grünwald
Christoph Kehl
Büro für Technologiefolgen-Abschätzung
beim Deutschen Bundestag

Die militärische Niederlage Armeniens im jüngsten Krieg mit Aserbaidschan (Juli bis November 2020) soll nach Auffassung von Experten nicht zuletzt einer technologischen Überlegenheit des Siegers beim Einsatz unbemannter tödlicher Waffensysteme geschuldet gewesen sein. Wiederholte Erwähnung in den Medien-Berichten fand dabei unter anderem ein aus Israel bezogenes Waffensystem mit der Bezeichnung Harop – eine Lenkwaffe, die nicht auf direktem Weg ins Ziel gefeuert wird, sondern die über dem Einsatzgebiet kreisen und quasi auf eine günstige Gelegenheit warten kann. Im Fachjargon wird von Loitering (trödelnder) Munition gesprochen. Dazu Franz-Stefan Gady vom International Institute for Strategie Studies (IISS), London: „Loitering Munitions sind im Moment die unbemannten Plattformen mit der meisten Autonomie. Sie können bereits ohne menschliche Intervention, auf bestimmte Frequenzen oder Bilder reagierend, Ziele angreifen.“ Im Hinblick auf den jüngsten Kaukasuskonflikt war in den Medien bildhaft vom fliegenden Minenfeld die Rede. Der Sieger hat Filmaufnahmen entsprechender Einsätze ins Internet gestellt.

Lethal Autonomous Weapon Systems (LAWs / [unbemannte] tödliche eigenständige Waffensysteme) werden von einschlägigen Experten und in den Medien bereits als nächste Revolution im Kriegswesen gehandelt. In der Regel apostrophiert als die dritte – nach der Erfindung des Schwarzpulvers und der Entwicklung von Kernwaffen. (Wobei eine Zählung als die vierte wohl eher zutreffend wäre, denn zwischen den beiden genannten fand immerhin noch die Mechanisierung und Automatisierung der Feuerwaffen statt, deren „revolutionäre“ neue Dimension des Tötens mit einer Vervielfachung der Opfer sich erstmals im Amerikanischen Bürgerkrieg und dann mit voller Wucht auf den Schlachtfeldern des ersten Weltkrieges gezeigt hat.)

So sperrig der Terminus technicus Lethal Autonomous Weapon auch klingen mag, so plastisch vermittelt sein umgangssprachliches Pendant – „Killer-Roboter“ –, worum es geht: nämlich um ein ohne unmittelbares menschliches Mittun eigenständig operierendes Waffensystem mit gegebenenfalls tödlicher Wirkung. Die offizielle Definition des Pentagons lautet seit dem Jahre 2012, als der damalige US-Verteidigungsminister Ashton Carter eine entsprechende normativen Direktive (DoDD 3000.09) unterzeichnete: ein „Waffensystem, das nach seiner Aktivierung Ziele auswählen und bekämpfen kann, ohne dass menschliches Bedienpersonal eingreifen muss“. Zwar sollen derartige Waffen nach gegenwärtigem Stande vorprogrammierten Einsatzparametern folgen, doch der „Feuerbefehl“ als solcher würde nicht mehr durch den Menschen ausgelöst werden, sondern vom System selbst. Autonom eben.

Als Vorläufer solcher Waffen, die nach Scharfstellung oder Abschuss ebenfalls keines menschlichen Bedienpersonals mehr bedürfen, gelten zum Beispiel Minen und sogenannte „Fire-and-forget“-Raketen zur Panzer- oder zur Luftabwehr. Erstere sind jedoch ortsgebunden und insofern „dumm“, als sie lediglich einem starren Reaktionsmuster folgen, sobald ihre Sensorik auf entsprechende mechanische, optische oder andere Trigger (Auslöser) reagiert, während die zweiteren zumindest ihre Zielanflugbahn selbständig zu modifizieren vermögen. Künftige LAWSs hingegen – und das macht den „Quantensprung“ aus – sollen sich in ihrem Einsatzumfeld zu Lande, in der Luft oder im Wasser über einen längeren Zeitraum hin frei bewegen, dabei aktiv Informationen aus vielfältigen Quellen (Abbildungen ihrer Umgebung in unterschiedlichen Spektralbereichen und optische, akustische, Radar- sowie andere elektromagnetische Signale) aufnehmen, analysieren, respektive verarbeiten und auf dieser Basis ihre Mission (Zielauswahl und -vernichtung) erfüllen können. Schlüsselbegriffe auf dem Weg zu derartigen LAWSs sind maschinelles Lernen und künstliche Intelligenz.

Befürworter autonomer Waffensysteme aus Politik, Militär und einschlägigen Medien plädieren (nach Grünwald und Kehl) darüber hinaus insbesondere mit folgenden Argumenten für deren Einführung – LAWSs brächten operative Vorteile in den Kategorien Geschwindigkeit, Agilität, Ausdauer, Reichweite sowie Koordination und könnten:

  • gefährliche Aufgaben (etwa in radioaktiv oder chemisch kontaminiertem Gelände) oder schmutzige Jobs (zum Beispiel „extralegale“ Tötungen) sowie für Menschen undurchführbare Missionen übernehmen,
  • bei verdeckten oder geheimen Operationen weniger Spuren hinterlassen und unauffälliger agieren als große bemannte Plattformen,
  • bei zeitkritischen Operationen zu einer schnelleren und besseren Entscheidungsfindung beitragen und nicht zuletzt
  • durch Verringerung des Personaleinsatzes zu einer Reduzierung von Kosten führen.

Dazu ist grundsätzlich anzumerken, dass Fans militärischer High-Tech-Innovationen immer wieder dazu neigen, die eierlegende Wollmilchsau zu imaginieren. (Dieser lästerliche Begriff war bereits ab Mitte der 1970er Jahre im Zusammenhang mit dem damaligen NATO-Projekt eines Multirole Combat Aircraft / MRCA, des nachmaligen Kampfbombers Tornado, im Schwange.) Vor allem jedoch führen Kritiker schwerwiegende Gegenargumente ins Feld:

  • Die operativen Eigenschaften von LAWSs, insbesondere der größere physische und psychologische Abstand vom eigentlichen Kampfgeschehen, könnten die Hemmschwelle zum Einsatz von Waffengewalt, nicht zuletzt in Krisensituationen, deutlich senken.
  • Die potenzielle Beschleunigung des militärischen Geschehens könnte darüber hinaus dazu führen, dass Akteure sich veranlasst sehen, „präemptiv“ zuzuschlagen und damit ihrerseits Krieg noch vor dem Angriff eines Gegners auszulösen.
  • Auch könnte die internationale Stabilität unterminiert werden, „wenn z. B. bei technischen Fehlfunktionen keine Möglichkeit der menschlichen Intervention mehr besteht und so ein potenziell katastrophaler Schlag unbeabsichtigt geführt würde“ (Grünwald/Kehl).
  • Ohne menschliche Kontrolle „könnten schwerwiegende Fehlfunktionen oder Systemfehler unentdeckt bleiben“, so Christoff Heyns bereits 2013 in einem Bericht an den Human Rights Council der UNO.
  • Dass ein militärisches Ziel aufgeklärt und mit hoher Wahrscheinlichkeit schnell bekämpft werden könne, bedeute im Übrigen längst nicht, dass seine Vernichtung im strategischen, sozialen, ethischen und rechtlichen Kontext erlaubt oder in einem eindimensional militärischen Sinne auch nur sinnvoll sei. (Allerdings müssen völkerrechtliche, kriegshumanitäre oder gar moralische Schranken, einen entsprechenden Willen der politischen – und militärischen – Führung vorausgesetzt, kein ernsthaftes Hindernis gegen den Einsatz von LAWSs sein – wie die illegale, im Wortsinne mörderische Drohnenkriegsführung der USA auf Territorien souveräner Drittstaaten seit vielen Jahren verdeutlicht.)
  • Wer übernähme die (völker)rechtliche Verantwortung für (Fehl-)Entscheidungen von autonomen Waffensystemen?

Grundsätzlich sei nicht auszuschließen, dass LAWSs zukünftig mit Nuklearwaffen bestückt werden könnten. (Entsprechende Entwicklungen sind in Russland bereits im Gange, wie Präsident Putin bereits 2018 im Rahmen seiner damaligen Rede zur Lage der Nation öffentlich gemacht hat; siehe dazu ausführlicher Das Blättchen 8/2018.)

Generell kam ein Gutachten des Büros für Technologiefolgen-Abschätzung (TAB) beim Deutschen Bundestag im Oktober 2020 zu dem Fazit, dass „das operative Geschehen und die Entscheidungsprozesse durch autonome letale Waffen derart beschleunigt werden (könnten), dass Menschen kognitiv und hinsichtlich ihres Reaktionsvermögens an ihre Grenzen kämen. So könnte in einer Krise eine Eskalationsspirale automatisiert und möglicherweise ungewollt in Gang gesetzt werden.“ Und bereits im Juli 2015 hatten – ausgehend von den USA – über 30.000 KI- und Robotikforscher sowie Unterstützer in einem Offenen Brief gewarnt: „Autonome Waffen werden die Kalaschnikows von morgen werden. Anders als Atomwaffen benötigen sie keine kostspieligen und schwer zu beschaffenden Ausgangsstoffe, also werden sie allgegenwärtig und für alle maßgeblichen Militärmächte günstig zu produzierende Massenware werden. Es wird nur eine Frage der Zeit sein, bis sie auf dem Schwarzmarkt auftauchen. Dann werden sie bei Terroristen landen, oder bei Diktatoren, die ihr Volk besser kontrollieren wollen, oder bei Warlords, die ethnische Säuberungen durchführen wollen. Autonome Waffen sind ideal geeignet für Missionen wie Attentate, die Destabilisierung von Nationen, die Unterdrückung von Bevölkerungen und die selektive Tötung einer bestimmten ethnischen Gruppe.“

Und der Sachstand in Deutschland? Im Koalitionsvertrag der derzeitigen Bundesregierung heißt es zwar: „Autonome Waffensysteme, die der Verfügung des Menschen entzogen sind, lehnen wir ab. Wir wollen sie weltweit ächten.“ Doch „ächten“, so Experten, muss nicht gleich „verbieten“ sein, vielmehr lasse die Wortwahl ein Hintertürchen offen. Das stünde mutmaßlich mindestens im Zusammenhang mit dem FCAS-Projekt – einem Vorhaben, das Deutschland zusammen mit Frankreich und Spanien betreibt und dessen mögliche Entwicklungskosten das Handelsblatt auf bis zu 100 Milliarden Euro veranschlagt hat. Dieses Future Combat Air System, ein Kampfbomber der sechsten Generation, soll ab 2040 die Kampfflugzeuge „Eurofighter“ und „Rafale“ durch einen neuen Jet ersetzen, von dem aus auch sogenannte Remote Carriers einsetzbar sein sollen – eine Kombination aus Lenkwaffe und Drohne mit teilweise autonomen Funktionen. Eine gängige Argumentationslinie in diesem Kontext trug die CDU-Bundestagsabgeordnete Gisela Manderla am 31. Januar 2020 im Plenum des Parlamentes vor: „Selbst wenn wir der möglichen Anwendung bestimmter bereits vorhandener oder künftiger Technologien kritisch gegenüberstehen, so müssen wir doch in der Lage sein, diese zu beherrschen. Dies betrifft sowohl den Bereich der künstlichen Intelligenz als auch den der autonomen Waffensysteme.“ Die Dame als solche muss man nicht unbedingt kennen, doch im Rahmen der hier in Rede stehenden Problematik ist relevant, dass sie als Vizepräsidentin der Deutschen Gesellschaft für Wehrtechnik fungiert.

Zur Abstimmung im Bundestag stand an jenem Tage ein Antrag der Linkspartei mit dem Titel „Deutsches Moratorium für autonome Waffensysteme erklären und völkerrechtliches Verbot auf den Weg bringen“. Dazu Manderla mit einer für die Logik von Rüstungslobbyisten nicht untypischen Volte: „Eine Definition des Begriffs ‚autonome Waffensysteme‘ existiert bislang nicht. Von daher geht die erhobene Forderung, diesen Waffensystemen die Förderung zu versagen, mangels Bestimmung ins Leere.“ Nun ja, in Sachen Definition sind, wie erwähnt, zumindest unsere Washingtoner Verbündeten seit 2012 bereits einen deutlichen Schritt weiter. Ansichten wie die von Manderla sind auch in anderen Bundestagsparteien keineswegs tabu und dürften – neben dem Pawlowschen Wegbeißreflex gegen grundsätzlich alles, was die Linkspartei einbringt, – ihren Teil dazu beigetragen haben, dass der erwähnte Antrag der Linkspartei am 31. Januar 2020 mit den Voten von CDU/CSU, SPD, AfD und FDP abgelehnt wurde. (Die Grünen enthielten sich.)

Im internationalen Rahmen laufen seit 2014 Rüstungskontrollgespräche über LAWSs in der UNO, und zwar auf der Grundlage der 1980 vereinbarten UN-Konvention über konventionelle Waffen, die ungerechtfertigtes Leid verursachen können (Convention on Certain Conventional Weapons / CCW). Bisher verliefen diese Gespräche, was konkrete Ergebnisse anbetrifft, erfolglos. Eine entscheidende Ursache dafür sehen Beobachter darin, dass die fünf Ständigen Mitglieder des UN-Sicherheitsrates (USA, Russland, China, Frankreich und Großbritannien) mehr oder weniger intensive Forschung und Entwicklung im Bereich von LAWSs betreiben. Mehr noch: Aufgrund der derzeitigen Gegebenheiten prognostiziert Ania Dahlmann von der Stiftung Wissenschaft und Politik (SWP), die als sicherheitspolitischer Think Tank der Bundesregierung gilt, einen „Rüstungswettlauf zwischen den USA sowie China und Russland“ bei LAWSs. Eine technologische Vorreiter- und Vorantreiberrolle in diesem Zusammenhang wird in der Regel den USA zugesprochen.

Deutschland, das an den Gesprächen im CCW-Rahmen von Anbeginn an teilnimmt, hat bisher ebenfalls noch zu keinem Zeitpunkt Vorschläge zur Aufnahme von Vertragsverhandlungen zu einem generellen Verbot von LAWSs unterstützt.

Andererseits haben sich, wie die Menschrechtsorganisation Human Rights Watch im vergangenen Jahr ermittelt hat, bisher aber überhaupt nur rund 30 Länder (vor allem aus Südamerika, Afrika und Asien) klar zu einem internationalen Verbot autonomer Waffen bekannt. Darunter auch Österreich, das in dieser Frage eine Vorreiterrolle spielt. Wien will in diesem Jahr eine internationale Konferenz zur Problematik tödlicher autonomer Waffen ausrichten.

Den aktuellen Gesamtsachstand zu LAWSs fasste das bereits zitierte TAB-Gutachten folgendermaßen zusammen: „Autonome Waffensysteme im strengen Sinne des Wortes, also bewaffnete unbemannte Plattformen, die fähig sind, im Kampfeinsatz ohne jegliche menschliche Kontrolle zu agieren, gibt es noch nicht.“ Daher besteht nach wie vor die Chance, internationale Regeln zu LAWSs bis hin zu einem generellen Verbot zu vereinbaren, „bevor die Killerroboter die Schlachtfelder dieser Erde erreichen“ (Alexander Schallenberg, österreichischer Außenminister). Doch die Zeit drängt.