EN

Publikation
Lizenz zum Töten: Künstliche Intelligenz in den Waffensystemen

Publikation: Lizenz zum Töten
© Friedrich Naumann Stiftung für die Freiheit

Nach jahrelangen Debatten soll der Deutsche Bundestag in Kürze in einem Mandat den Einsatz auch bewaffneter Drohnen durch die Bundeswehr grundsätzlich genehmigen. Zwar handelt es sich bei der eingesetzten Drohne Heron TP (bisher) um eine von Menschen ferngesteuerte Drohne, doch sie könnte mittel- bis langfristig durch Einsatz künstlicher Intelligenz zu einem voll-autonomen System ausgebaut werden. Der Einsatz dieser voll-autonomen Waffensysteme ist jedoch mit großen Sicherheitsrisiken und mit grundlegenden ethischen und rechtlichen Fragestellungen verbunden, auf die die internationale Gemeinschaft bisher noch keine übereinstimmenden Antworten gefunden hat. Auch ist es der Weltgemeinschaft bisher nicht gelungen, im Rahmen der UN-Waffenkonvention einen völkerrechtlich verbindlichen Vertrag zur Regulierung bzw. für ein Verbot dieser voll-autonomen Waffensysteme zu verabschieden. Ein Wettlauf zwischen den in der Entwicklung führenden Staaten USA, China, Israel und Südkorea ist zwangsläufig die Folge.

1. Künstliche Intelligenz in Waffensystemen

Definition von LAWS

Der Begriff LAWS steht für „Lethal autonomous weapon systems“, d.h. tödliche autonome Waffensysteme. Eine allgemein akzeptierte Definition von LAWS gibt es bisher nicht. Die internationale Fachwelt verwendet meist jene funktionale Definition von „Autonomie in Waffensystemen“, die sich die USA und das Internationale Komitee vom Roten Kreuz (IKRK) zu eigen gemacht haben: Danach sind Waffensysteme „vollautonom“, wenn sie nach ihrer Aktivierung den gesamten Prozess der Zielbekämpfung (targeting cycle) ohne signifikante menschliche Kontrolle durchlaufen. Dieser besteht aus fünf Schritten: find, fix, track, select, engage. Kurz gesagt: LAWS können selbständig ein Ziel wählen, angreifen und töten.

Grade von Autonomie

Schon lange sind Waffen im Einsatz, z.B. Raketenabwehrsysteme,die in den ersten drei Phasen des „targeting cycle“ (d.h. find, fix, track) – autonom operieren können. Neu ist die Erweiterung der Autonomie auf die Phasen „select“ und „engage“ und deren Einsatz in allen Waffengattungen, nicht nur in der Verteidigung. Viele Systeme werden zunächst teil-autonom betrieben, d.h. mit einem menschlichen Akteur als letzter Instanz. Der Prozess der zunehmenden Autonomisierung vollzieht sich dann Schritt für Schritt:1 In dem Maße wie einzelne Funktionen bestehender Waffensysteme nach und nach autonom gestaltet werden, in dem Maße nimmt die Rolle des Menschen bei der Entscheidungsfindung über den Waffeneinsatz ab. Man unterscheidet drei Stufen:

- Menschen sind ‘in the loop’ (Entscheidungsschleife) wenn sie ein hohes Maß an Steuerung und Kontrolle über die Systeme behalten (automatische Systeme).

- Menschen sind ‘on the loop’ wenn die Systeme zwar autonom agieren, der Mensch jedoch weiterhin den Prozess überwacht und kontrolliert (halb-autonome Systeme).

- Menschen sind ‘off the loop’ wenn die Systeme völlig autonom und ohne jegliches Eingreifen des Menschen arbeiten (voll-autonome Systeme).

Aktueller Stand der Entwicklung von LAWS

Experten schätzen, dass weltweit bereits über 30 Nationen aktiv an der Entwicklung von voll-autonomen Waffen arbeiten, darunter vor allem die USA, China, Israel, Südkorea, Frankreich, Großbritannien und Russland. Rund 380 teil- oder voll-autonome Waffensysteme existieren bereits oder sind in Arbeit. Der weitaus überwiegende Teil der Waffensysteme ist derzeit noch teil-autonom, d.h. ihre Handlungsautonomie ist noch beschränkt und ihre Steuerung unterliegt noch der menschlichen Kontrolle. Doch die Zahl der Funktionen, die Waffensysteme automatisch oder auch autonom ausführen können, nimmt kontinuierlich zu.

Einsatzmöglichkeiten von KI im militärischen Bereich

Der Einsatz künstlicher Intelligenz im militärischen Bereich hat hohes Potential – sowohl im defensiven wie im offensiven Bereich. Im defensiven Bereich kommen KI-gestützte Systeme v.a. bei der Aufklärung und  Lagebeurteilung (Einschätzung gegnerischer Kräfte und schnelle Ausführung von Vergeltungsschlägen), Logistik (autonome Fahrzeuge, Lieferdrohnen), Abwehrsystemen (v.a. gegen Raketen, Marschflugkörper und Artilleriegranaten) sowie bei der Kampfmittelbeseitigung zum Einsatz. Im offensiven Bereich kommen KIgestützte Systeme in LAWS zum Einsatz. d.h. in Kampfdrohnen, Panzern, Kampfrobotern, Schiffen und U-Booten. Zu den Waffensysteme, die auf dem Weg zur Autonomie bereits weit fortgeschritten sind, zählen die Drohne HARPY

(Israel), die Kamikaze-Drohne KUB-BLA (Russland), der Kampfpanzer T-14 Armata (Russland), die Helikopter-Drohne Blowfish A3 (China), das Drohnenkampfschiff JARI (China), der SGR-A1 Kampfroboter (Südkorea), der Sea Hunter (USA) sowie die Tarnkappen-Kampfdrohnen Taranis (GB) und nEUROn (Frankeich)

HARPY-Drohne – gilt in Expertenkreisen als voll-autonom.
HARPY-Drohne – gilt in Expertenkreisen als voll-autonom.

Die Zukunft militärischer KI

Bisher sind die meisten KI-gestützten Waffensysteme nur sehr begrenzt einsetzbar. Sie können nur genau umrissene Aufgaben erfüllen und sich noch nicht an sich verändernde Situationen anpassen. Aber genau das ist im realen Kampfgeschehen notwendig. Dazu braucht es sog. „lernende Systeme“, d.h. Systeme, die die Fähigkeit besitzen, aus früheren Anwendungen zu lernen und sich an lokale Gegebenheiten und Umstände dynamisch anzupassen, denen sie zuvor noch nicht ausgesetzt waren. Großes militärisches Interesse besteht auch an der sog. Schwarmtechnologie, die als „game changer“ gilt. Ein Schwarm ist eine Gruppe einzelner Systeme, die interagieren und als Kollektiv mit einem gemeinsamen Ziel arbeiten. Die Einheiten koordinieren sich selbst, ohne zentrale Steuereinheit. Einzelne Defekte oder Abschüsse haben also nur einen geringen Effekt auf die Leistungsfähigkeit des Schwarms. Es kann sich dabei um Drohnen-, Roboter- oder U-Boot-Schwärme handeln. Ihre Kontrolle durch den Menschen gestaltet sich jedoch schwierig. Eine Reihe von Ländern arbeitet bereits an experimentellen Vorstufen der Tarnkappen-Kampfdrohnen. Sie erreichen lange Einsatzzeiten und hohe Geschwindigkeiten und bleiben vom Radar unentdeckt. Das bekannteste Beispiel ist die britische „Taranis“-Drohne. In ca. zehn Jahren werden diese Tarnkappen-Kampfdrohnen einsatzbereit sein.

Pro und Contra militärischer KI

Befürworter betonen, dass durch die zunehmende Autonomie in den Waffensystemen Geschwindigkeit, Reichweite, Präzision sowie Schlagkraft von Operationen erheblich erhöht werden könnten. KI-gestützte Systeme erlaubten eine wesentlich breitere und schnellere Erfassung der Bedrohungslage und des Geschehens auf dem Schlachtfeld. Sie ermöglichten es gleichzeitig, schnellere und qualifiziertere Entscheidungen zu treffen, als ein Mensch. Auch seien sie schneller und besser in der Lage, die enormen Datenmengen zu verarbeiten, die moderne Armeen in bewaffneten Konflikten zu bewältigen hätten. Zudem seien sie nicht anfällig für Müdigkeit oder Stress. Letztendlich könne dadurch das Leben der eigenen Soldaten geschützt und die Zahl ziviler Opfer verringert werden. Die Gegner von militärischer KI verweisen auf die vielen Gefahren, die mit ihrem Einsatz verbunden sind:

- Gefahr der bewussten/unbewussten Manipulation und des Hacking

KI-Systeme sind sehr abhängig von der Exaktheit der eingegebenen Daten. Sie sind anfällig für bewusste und unbewusste Voreingenommenheit (bias). Algorithmen spiegeln die moralischen Vorurteile und Stereotype ihrer Programmierer wider und kommen immer wieder zu bizarren Fehleinschätzungen. Zudem besteht die Gefahr des Hacking oder der Manipulation per Schadsoftware.

- Neue Dimension globaler Destabilisierung

Durch autonome Systeme kann die Hemmschwelle, einen Krieg zu führen, deutlich sinken, denn dank dem Einsatz von LAWS kann der Verlust an Menschenleben und Ausrüstung stark reduziert werden. Gleichzeitig beschleunigen autonome Systeme das Tempo von Kriegshandlungen in einem Maße, dass es die menschliche Reaktionsfähigkeit übersteigt. Damit besteht die Gefahr der automatischen Konflikteskalation („flash wars“), erhöhter Opferzahlen sowie einer neuen Dimension globaler Destabilisierung. Eine besondere Gefahr geht von künstlicher Intelligenz in nuklearen Systemen aus. Mit einer künstlichen Intelligenz als Kontrollinstanz nuklearer Abwehrsysteme potenziert sich das Risiko eines Einsatzes von Atomwaffen.

- Gefahr der Proliferation

Es besteht auch eine hohe Gefahr der Proliferation. Derzeit sind nur wenige reiche Länder in der Lage, LAWS zu erforschen und zu entwickeln. Aber die Produktion wird günstiger, u.a. wegen des 3D-Drucks, und es braucht, anders als bei Atomwaffen, für ihre Herstellung keine besonderen Rohstoffe. Zudem ist der Export von (teil)autonomen Waffen schon längst ein blühender Markt. Auch autoritäre Führer und nicht-staatliche Akteure wie Terrorgruppen, Warlords und Kriminelle sind in der Lage, LAWS zu beschaffen. Houthi Rebellen, ISIS und Boko Haram setzen bereits Kampfdrohnen ein. Experten schätzen, dass mindestens 102 Länder Programme für militärische Drohen haben. Je mehr Akteure jedoch über LAWS verfügen, umso schwieriger wird ihre internationale Kontrolle.

- Übereilter Einsatz unsicherer Systeme

Die wirkliche Gefahr des „KI-Wettrüstens“ besteht nicht darin, dass ein Land in der KI-Entwicklung hinter seinen Konkurrenten zurückfällt, sondern dass die Perzeption eines Wettrennens alle Länder dazu veranlasst, übereilt unsichere KI-Systeme einzusetzen und damit sich selbst und alle anderen zu gefährden.

Ethische und rechtliche Grundsatzfragen

Beim Einsatz von LAWS stellen sich grundlegende ethische und rechtliche Fragen, auf die die internationale Gemeinschaft bisher noch keine übereinstimmenden Antworten gefunden hat:

Ethische Frage: Darf die Entscheidung über Leben und Tod eines Menschen einer Maschine überlassen werden?

- Argumentation der Gegner: Es verletzt die Würde des Menschen, Entscheidungen über Leben und Tod auf dem Schlachtfeld an Algorithmen zu delegieren. Das Töten im Krieg auf Maschinen auszulagern und automatisch „abarbeiten“ zu lassen, mache Menschen zu Objekten. Für die Getöteten mag es keinen Unterschied machen, ob ein Mensch oder ein Algorithmus ihren Tod bewirkt hat. Aber die Gesellschaft, die eine solche Praxis erlaubt und mit dem Töten im Krieg ihr kollektives menschliches Gewissen nicht mehr belastet, riskiert nicht weniger als die Aufgabe der grundlegendsten zivilisatorischen Werte und humanitären Prinzipien. Dies ist eine rote Linie, die die Menschheit niemals überschreiten sollte.

- Argumentation der Befürworter: Auch der Mensch ist in Kriegssituationen nicht unfehlbar, v. a. wenn er von starken Emotionen wie Zorn oder Angst geleitet wird. Durch LAWS kann die Kriegsführung präziser geführt und somit die Zivilbevölkerung besser geschützt werden.

Rechtliche Frage: Sind LAWS mit dem humanitären Völkerrecht vereinbar?

Im Rahmen eines bewaffneten Konfliktes gilt stets, d.h. unabhängig von den eingesetzten Waffensystemen, das humanitäre Völkerrecht. Dieses hat sich jedoch im Lichte konventioneller Waffensysteme entwickelt, die nicht autonom handeln. Folglich richtet es sich an Menschen und nicht an Maschinen.

- Contra: LAWS sind mit dem humanitären Völkerrecht unvereinbar, denn autonome Systeme sind nicht in der Lage, in dynamischen Kampfsituationen zwischen Kombattanten und Zivilisten oder zwischen militärischen und zivilen Objekten zu unterscheiden. Auch die Verhältnismäßigkeit eines Angriffs einzuschätzen, sei unmöglich für eine Maschine. Zudem sei bei LAWS, die den Schießbefehl autonom erteilen, die zentrale Rolle des Menschen beim Waffeneinsatz und dessen Verantwortlichkeit nicht mehr gegeben. Dadurch besteht eine „Verantwortungslücke“, d. h. es ist nicht mehr klar, wer zur Verantwortung gezogen werden kann, wenn die Maschine falsch entscheidet. Ist es die Nation, der Kommandant, der Operator, der Hersteller, der Programmierer – oder das Waffensystem selbst?

- Pro: Künftig wird es möglich sein, LAWS so zu programmieren, dass sie die Grundprinzipien des humanitären Völkerrechts einhalten können. Mit LAWS kann die Kriegsführung sogar humaner werden, da Menschen an der Front nicht mehr gebraucht werden. Außerdem ist auch in Kriegen, die von Menschen geführt wurden, das humanitäre Völkerrecht immer wieder massiv verletzt worden.

- Alternativer Ansatz: LAWS können weder als Waffen noch als klassische Kombattanten behandelt werden. Deshalb greift das bestehende humanitäre Völkerrecht nicht und es muss ein neues Recht geschaffen werden. Geeignet wäre eine neue Konvention, unter der „irreguläre Kämpfer“ wie autonome Waffensysteme rechtlich reguliert würden

Künstliche Intelligenz in der Rüstungskontrolle

Künstliche Intelligenz ist zu einem wichtigen Thema in der Rüstungskontrolle geworden, und zwar in doppelter Hinsicht. Als Gegenstand der Rüstungskontrolle entzieht sich KI den bisherigen, traditionellen Ansatzpunkten, da sie weder physische Eigenschaften oder Fähigkeiten noch transparente Funktionsweisen besitzt, auf denen aktuelle Methoden und Verfahren zur quantitativen wie qualitativen Beschränkung in der Rüstung basieren. Auf der anderen Seite gibt KI der Rüstungskontrolle aber auch neue Werkzeuge an die Hand. So ist es denkbar, dass die Verifikation bestehender und neuer Rüstungskontrollverträge, also die Überprüfung ihrer Einhaltung, in erheblichem Maß von KI als technischem Hilfsmittel profitieren könnte, etwa durch eine höhere Präzision und Geschwindigkeit bei der Sammlung, Verarbeitung und Analyse von Daten.

Die gesamte Broschüre finden Sie hier: