ESSAY
12.04.2021
Stellen Sie sich vor, es ist Krieg und keiner geht hin. Doch der Krieg findet dennoch statt. Weil er von Maschinen ausgefochten wird. Wenn der Deutsche Bundestag, wie im Oktober 2020 geschehen, über die Anschaffung von Kampfdrohnen für die Bundeswehr debattiert, liegt dann ein solches Szenario schon in der Luft?
Foto: Leslie Pratt / Wikipedia
Im Juni 2018 stimmte der Deutsche Bundestag der Beschaffung fünf bewaffnungsfähiger Drohnen vom Typ Heron TP des israelischen Herstellers IAI zu.1 Heron TP ist das Nachfolgemodell der Heron 1, die von der Bundeswehr seit 2010 als Aufklärungsdrohne eingesetzt wurde. Neben einer „deutlich besseren Flugleistung” besteht bei der Heron TP die Option, sie mit Waffen auszurüsten. Aus einer Aufklärungsdrohne, die zur reinen Überwachung des Einsatzgebiets genutzt wird, würde eine Kampfdrohne mit der Möglichkeit feindliche Ziele zu attackieren. Die Option einer Bewaffnung sollte zu einem späteren Zeitpunkt entschieden werden.
Zwei Jahre später war der Zeitpunkt gekommen. Das Verteidigungsministerium beantragte die Bewaffnung der Heron TP. Der Bundestag debattierte kontrovers. Am Ende scheiterte das Vorhaben am Widerstand der SPD Bundestagsfraktion, weil es die „im Koalitionsvertrag geforderte ausführliche und breite Debatte über das Rüstungsprojekt nicht gegeben habe.”2 Möglicherweise ist die von der SPD gewünschten Debatte aber bereits obsolet, bevor sie überhaupt begonnen hat. Denn am Horizont zeichnet sich bereits eine neue Drohnengattung ab, die noch viel grundlegendere Fragen aufwirft: die autonom agierende Drohne.
Einen Vorgeschmack, wohin die Reise mit dieser Drohnengattung geht, könnte der Krieg zwischen Armenien und Aserbaidschan im Herbst 2020 gegeben haben. Der Krieg endete, vorerst, am 10. November 2020 durch Unterzeichnung eines Waffenstillstands. Aserbaidschan hatte erhebliche Gebiete in Bergkarabach erobert und erklärte sich zum Sieger des Krieges. Der Erfolg Aserbaidschans erregte die Aufmerksamkeit internationaler Sicherheitsexperten, da er, wie die Experten vermuteten, auf einem massiven Einsatz militärischer Drohnen beruhte.
Es gibt Hinweise, dass auch die Drohne Harop zum aserbaidschanischen Drohnenarsenal gehörte. 3 Harop ist eine sogenannte „loitering weapon” (herumlungernde Waffe), die auf die Zerstörung feindlicher Radarsysteme spezialisiert ist:
„Einmal gestartet, streift sie durch das Zielgebiet, bis sie ein Radarsystem entdeckt, das sie dann angreift. Damit haben die Waffenentwickler die Grenze erreicht, die Grenze zu voll autonomen, selbstständig handelnden Systemen.”4
Der entscheidende Unterschied zwischen Harop und ferngesteuerten Drohnen wie Heron TP ist, dass bei Harop nicht der Mensch sondern die Maschine auf den Auslöser drückt. Harop gilt deshalb als eine der ersten autonomen militärischen Drohnen – in der Fachsprache als LAWS bezeichnet: Letales Autonomes Waffensystem.
Im September 2009 war die Lage der Deutschen Bundeswehr in Afghanistan angespannt. Im Raum Kundus, in dem die Bundeswehr ihr Mandat ausübte, fanden sich Truppen der Internationalen Sicherheitsunterstützungsgruppe (ISAF) immer wieder heftigen Gefechten ausgesetzt. Mehrere deutsche Soldaten wurden dabei getötet oder verwundet. Zudem gab es Hinweise, dass die Taliban mit Treibstoff gefüllte Fahrzeuge als rollende Bomben gegen das deutsche Lager in Kundus einsetzen könnten. In Kandahar hatte es einen solchen Angriff bereits gegeben.
Am 4. September 2009 entführten Talibankämpfer zwei Tanklastwagen der Bundeswehr. Aufklärungsdrohnen verfolgten die Taliban, bis sie mit den Tanklastwagen in einer Furt stecken blieben. Oberst Klein, der Kommandeur des Wiederaufbauteams, wurde über die Situation informiert. Er forderte zwei Kampfflugzeuge an und gab den Befehl die Talibankämpfer zu bombardieren. Eine folgenschwere Entscheidung. Denn an den Tanklastwagen befanden sich nicht nur Talibankämpfer sondern auch viele Zivilisten. Ein Bericht des Internationalen Komitees des Roten Kreuzes listete die Namen von 74 toten Zivilisten auf, darunter auch Kinder. Gegen Oberst Klein wurde ein Ermittlungsverfahren eingeleitet wegen des Verdachts, gegen das Völkerstrafrecht verstoßen zu haben.5
Stellen Sie sich nun vor, der Angriff auf die Tanklaster wäre nicht durch Oberst Klein befehligt sondern durch eine letale autonome Drohne ausgeführt worden. Die Drohne ist eine Weiterentwicklung der „herumlungernden” Harop. Statt Flugabwehrraketen vernichtet sie feindliche Kämpfer. Die Sensoren der Drohne scannen die Menschen an den beiden Tanklastern, der Algorithmus beurteilt die Sensordaten als feindliche Kämpfer und löst den Angriff aus: Es sterben 74 Zivilisten.
Wer oder was wäre in diesem Fall für die algorithmische Fehlleistung der Drohne zur Verantwortung zu ziehen? Wer oder was müsste mit einem Verfahren auf Basis des Völkerstrafrechts rechnen? Die Drohne hat den Angriff selbständig ausgelöst, ist aber kein Subjekt, dem man Verantwortung für die Folgen zuschreiben könnte. Dieser Sachverhalt wird in der Maschinenethik als „Verantwortungslücke” bezeichnet. Darin unterscheiden sich LAWS wesentlich von ferngesteuerten Drohnen wie der Heron TP. Bei ferngesteuerten Drohnen tritt keine Verantwortungslücke auf. Den Beschuss eines feindlichen Ziels führt weiterhin ein Soldat auf Basis eines Befehls aus.
Autonomie ist ein zentrales Merkmal künstlicher Intelligenz. Das bekannteste Beispiel hierfür ist das autonome Fahren, bei dem ein Fahrzeug ohne menschliches Eingreifen von A nach B fährt. Die Verantwortungslücke trifft im Prinzip auf alle Spielarten künstlicher Intelligenz zu. Letale autonome Waffensysteme sind eine dieser Spielarten. Die Verantwortungslücke tritt hier in ihrer drastischsten Form auf.
Trotz dieses eindeutigen Befundes wird der Einsatz von LAWS kontrovers diskutiert.6 Befürworter führen an, dass mit ausgereiften LAWS Kriegshandlungen präziser ausgeführt werden können und damit weniger Menschen zu Tode und zu Schaden kommen. Führen Sie sich zur Veranschaulichung noch einmal die Situation in Kundus vor Augen. Nehmen Sie nun an, die autonome Kampfdrohne würde im Gegensatz zu Oberst Klein erkennen, wer von den Personen an den Tanklastern zu den Talibankämpfern gehört und wer nicht. Mit chirurgischer Präzision würde sie die feindlichen Kämpfer eliminieren, den Zivilisten aber keinen (körperlichen) Schaden zufügen. Was, so die provokante Folgerung, ist in dieser Situation verantwortungsvoller: Versehentlich 74 Zivilisten zu töten und dafür Oberst Klein verantwortlich machen zu können oder durch den Einsatz der autonomen Kampfdrohne die Verantwortungslücke in Kauf zu nehmen, dafür aber 74 Menschenleben zu schonen?
Spinnen wir den Gedanken noch etwas radikaler weiter und nehmen den Faden vom Anfang dieses Essays auf: Stellen Sie sich vor, es ist Krieg und keiner geht hin – weil er vollständig von autonomen Waffensystemen geführt wird. Auf dem Schlachtfeld fällt keine Menschenseele mehr, es ist im übelsten Fall übersät von Maschinenschrott. Wenn, wie die Geschichte zeigt, der Krieg zum Menschen gehört, wäre es dann keine zivilisatorische Errungenschaft, Leid und Tod durch einen vollautomatisierten Krieg auf ein Minimum zu reduzieren?
Gegen dieses Idealbild eines vollautomatisierten Krieges wenden Gegner von LAWS ein, dass, paradoxerweise, durch die Minimierung von Kriegstoten die Hemmschwelle, Kriege zu führen, sinke. Und mit der Anzahl der Kriege steigt die Anzahl der minimierten Toten. Zudem sei ein LAWS in seiner Grundausstattung einfach, günstig und massentauglich herzustellen – und man könne davon ausgehen, dass die Kosten durch Effizienzgewinne in der Herstellung, ähnlich wie in den letzten Jahrzehnten bei IT-Consumerprodukten, signifikant sänken. Kampfdrohnen für jedermann sozusagen. Wohin das führen kann, spielt der Kurzfilm Slaughterbots konsequent durch.7
Sowohl die Befürworter als auch die Gegner von LAWS bringen valide Argumente vor. Der Zuversicht auf Kriege mit einem Minimum an Toten, einem Krieg der Maschinen, steht die Befürchtung einer unkontrollierten, massenhaften Ausbreitung autonomer Waffen entgegen. Während die Entwicklung der LAWS voranschreitet, müssen wir entscheiden, welches Szenario uns in die Zukunft leiten soll. Die Berücksichtigung eines Guten Lebens für alle Menschen kann hier als Entscheidungshilfe dienen. Dabei erhält die Eintrittswahrscheinlichkeit eines leidvollen Szenarios ein besonderes Gewicht. Im Sinne weiser Voraussicht ist ein derartiges Szenario zu vermeiden. Da in der Zukunft eine unkontrollierte Ausbreitung von LAWS nicht auszuschließen und vielleicht sogar wahrscheinlich ist, müssten sie wie Landminen oder biologische Waffen geächtet werden. Dafür sprechen sich auch hunderte Wissenschaftler aus der KI-Forschung in einer Petition aus.8. Die Petition wurde zudem von mehr als 30 Staaten unterzeichnet. Die Bundesrepublik Deutschland ist nicht dabei.
In einer Welt, in der der Krieg seit Anbeginn zum Inventar gehört, sind gut ausgerüstete Verteidigungkräfte leider ein „notwendiges Übel”. Für die Bundesrepublik Deutschland trägt der Deutsche Bundestag dafür die Verantwortung. Er sollte im Sinne dieser Verantwortung aber auch darauf hinwirken, dass sich die Waffenspirale nach unten und nicht nach oben dreht. Sonst wird er womöglich in einer nicht allzufernen Zukunft nicht mehr über ferngesteuerte Kampfdrohnen sondern über letale autonome Waffensysteme diskutieren müssen.
Bundesministerium der Verteidigung: Heron TP. https://www.bmvg.de/de/themen/dossiers/heron-tp ↩︎
Zeit: SPD will Anschaffung bewaffneter Drohnen nicht zustimmen. https://www.zeit.de/politik/deutschland/2020-12/bundeswehr-spd-bundestag-anschaffung-bewaffnete-drohnen-heron-tp ↩︎
Tagesschau: Verbunden durch Waffen und Öl. https://www.tagesschau.de/ausland/israel-aserbaidschan-101.html ↩︎
SWR2: Der automatisierte Krieg. https://www.swr.de/swr2/wissen/der-automatisierte-krieg-swr2-wissen-2020-08-22-102.html ↩︎
Wikipedia: Luftangriff bei Kundus. https://de.wikipedia.org/wiki/Luftangriff_bei_Kundus#cite_ref-50 ↩︎
Eine ausführliche Diskussion findet sich in: Misselhorn, Cathrin: Grundfragen der Maschinenethik. Ditzingen: Reclam, 2018 ↩︎
Sugg, Stuart: Slaughterbots. http://www.stewartsugg.com/film/slaughterbots ↩︎
Future of Life: Lethal Autonomous Weapons Pledge. https://futureoflife.org/lethal-autonomous-weapons-pledge ↩︎