Ein kürzlich veröffentlichter UN-Bericht über Libyen impliziert – aber nicht ausdrücklich –, dass eine türkische Kargu-2-Drohne verwendet wurde, um Menschen autonom mit den Fähigkeiten der künstlichen Intelligenz der Drohne anzugreifen. Ich schrieb über das Ereignis im Bulletin und die Geschichte ging viral. Die New York Times, NPR, Axios, Gizmodo und ein paar Dutzend weitere Medien in mindestens 15 Sprachen haben alle darüber berichtet. Die Intensität der Reaktion überraschte einige Experten, die feststellten, dass es seit Jahren autonom operierende Waffen gibt. Vielleicht ist die Bedeutung des libyschen Vorfalls gesellschaftlich symbolisch – ein Ereignis, das plötzlich die öffentliche Aufmerksamkeit auf ein Thema lenkt, das sich seit langem zusammenbraut – kein Sputnik-Moment, sondern ein Kargu-2-Moment.
Der wahrscheinlich beste Weg, die Verwendung autonomer Waffen zu überprüfen, besteht darin, die Waffe selbst zu inspizieren. Wenn Ermittler eine Waffe wiederfinden, können sie diese durch digitale forensische Techniken untersuchen und in Datenprotokollen nach Beweisen suchen, wie etwa Flugwegdaten, Foto- oder Video verarbeitungsaufzeichnungen, erhaltene Befehle oder andere Indikatoren dafür, dass die Waffe eine autonome Kontrolle von Schussentscheidungen ermöglicht und dass sie gebraucht wurden. Während eine solche forensische Untersuchung die Verwendung positiv bestätigen konnte, konnte sie nicht das Gegenteil beweisen, dass kein autonomer Angriff stattgefunden hatte. Was wäre, wenn eine beschlagnahmte Waffe manuell verwendet wurde, andere jedoch in einem Gefecht autonom eingesetzt wurden? Darüber hinaus haben Ermittler möglicherweise keinen Zugriff auf die Waffe: Ein autonomer Geschützturm wie der südkoreanische SGR-A1 kann unter der Kontrolle des Militärs bleiben, das ihn verwendet hat; eine gebrauchte Waffe darf nicht geborgen werden; die Daten auf der Waffe können beschädigt, gefälscht oder absichtlich gelöscht werden; oder die Waffe kann bei dem Angriff zerstört werden.
Die andere besteht darin, die Möglichkeit menschlicher Entscheidungsfindung endgültig auszuschließen. Eine ferngesteuerte Waffe muss mit einem menschlichen Bediener kommunizieren. Diese Signale können gestaut werden, um Fernoperationen zu vereiteln. Wenn die Kommunikations verbindung zwischen einem Bediener und einer Waffe vollständig und unwiderruflich getrennt wurde (oder anscheinend überhaupt nicht vorhanden war) und die Waffe weiter operierte, könnten die Ermittler entscheiden, dass die Waffe autonom agierte. Die Schlussfolgerung geht jedoch davon aus, dass die störgerät auf die richtigen Kommunikations frequenzen abzielten und korrekt funktionierten. Es wird auch davon ausgegangen, dass zwischen einem Schussbefehl und dem Wirken der Waffe keine Verzögerung aufgetreten ist und dass die blockierte Waffe keine Gegenmaßnahmen wie die Erhöhung der Signalstärke zur Überwindung der Blockierung ergriffen hat. Auch wenn die Ermittler glaubten, dass sich kein Bediener im Kontrollbereich einer Waffe befindet, könnten sie dies als Beweis für ein autonomes System ansehen. Aber auch diese Analyse wäre mit Unsicherheit behaftet. Was wäre, wenn der Operator in einem getarnten Fahrzeug gewesen wäre oder das Suchgebiet verlassen hätte, bevor er gefunden werden konnte?
Die gute Nachricht ist, dass die Überprüfung des Einsatzes der riskantesten autonomen Waffen eigentlich ganz einfach sein kann. Staaten entwickeln zunehmend autonome Drohnenschwärme, die, ähnlich wie traditionelle Massenvernichtungswaffen, globale Sicherheitsrisiken darstellen. Zum Beispiel startete das US-amerikanische Amt für strategische Fähigkeiten im Oktober 2016 103 Perdix-Drohnen von drei F/18 Super Hornets, während Indien während des jüngsten Armeetages einen 75-Drohnen-Schwarm testete und erklärte, einen Schwarm von 1.000 oder mehr Drohnen bauen zu wollen Betrieb ohne menschliche Kontrolle. Kein Mensch könnte plausibelerweise eine sinnvolle direkte Kontrolle über einen so massiven Schwarm haben. Die Überprüfung des Einsatzes autonomer Waffen wäre so einfach wie das Zählen der Anzahl der eingesetzten Drohnen. (Eine genaue Schwelle zu finden, bei der die menschliche Kontrolle unplausibel wird, ist definitiv eine Herausforderung, aber die grundlegende Intuition legt nahe, dass eine Schwelle vorhanden sein muss.)
Forscher haben auch neue, technische Verifikationsmethoden vorgeschlagen. Systeme können so konzipiert sein, dass sie die Anwesenheit eines menschlichen Bedieners erfordern und überprüfen oder unveränderliche Datenprotokolle zur autonomen Nutzung enthalten. Oder autonome Waffen können kryptografische Techniken enthalten, um zu beweisen, dass die Waffe ohne menschliche Genehmigung keinen Angriff starten kann. Alternativ können kritische Subsysteme wie ein Waffeneinsatzsystem transparent gemacht werden, um eine Inspektion durch Dritte zu ermöglichen, ohne Zugang zu sensibleren Subsystemen zu gewähren. Alle diese Methoden erfordern jedoch erhebliche Zustimmung und Vertrauen des Staates und können in der Praxis nicht erfolgreich sein. Entscheidet sich ein Staat, solche Maßnahmen nicht einzubeziehen, dann entfällt jeglicher Verifizierungswert. (Natürlich kann die Annahme solcher Maßnahmen ein Bekenntnis des Staates zu neu entstehenden autonomen Waffennormen zeigen, die ihren eigenen Wert haben.)
Zieht man all dies auf die Ausgangsfrage des autonomen Waffeneinsatzes in Libyen zurück, wird jede Bestätigung – ob positiv oder negativ – von Natur aus mit erheblichen Zweifeln verbunden sein. Und Krieg ist von Natur aus verwirrend und undurchsichtig. Fakt ist, dass eine Vielzahl von Staaten, groß und klein, autonome Waffen entwickeln. Diese Technologie ist nicht unbedingt kompliziert. Das Entwerfen einer autonomen Waffe mit Gesichtserkennung ist so einfach, dass es sich um ein Informatik-Klassenprojekt handeln könnte. Die Herausforderung, den Einsatz autonomer Waffen zu überprüfen, bedeutet, dass die Welt möglicherweise den ersten Einsatz von „Killerrobotern“ gesehen hat, ohne dass es jemand wirklich wusste. Der Beginn der autonomen Kriegsführung kann so einfach sein wie eine abgeschlossene Hausaufgabe.