Slaughterbots: Wissenschaftler zeichnen düsteres Zukunftsszenario
Was wäre, wenn intelligente Waffen ihre Opfer selbst auswählen? Und wenn Millionen davon unsere Zivilisation angreifen? Ein Attentatsszenario jenseits aller Vorstellungen. Und doch stehen solche Slaughterbots bereits kurz vor der Entwicklung. Führende Wissenschaftler fordern: Die Menschheit muss sie stoppen. Jetzt!
Einem Angriff von intelligenten, autonomen Waffen stünden wir weitgehend wehrlos gegenüber. "Keine Nation hat bislang eine befriedigende Antwort darauf“, erklärt Stuart Russell. Der Brite beschreibt ein Szenario, in dem eine Terrorgruppe einen Schwarm aus Tausenden sogenannter Slaughterbots auf eine Großstadt wie Berlin, Washington oder Moskau loslässt: Fliegende Drohnen, die gezielt auf Einzelpersonen als Ziele programmiert sind oder Menschen mit bestimmten Merkmalen unter Feuer nehmen, die sie selbstständig erkennen. Science Fiction?
Slaughterbots: Die Waffe der Zukunft schon heute im Einsatz
Stuart Russell ist kein Militärangehöriger, der höhere Budgets für hocheffiziente Angriffs- oder Verteidigungssysteme herausschlagen will. Im Gegenteil: Stuart Russell fordert ein weltweites Verbot sogenannter Lethal Autonomous Weapons (LAWs, "tödliche autonome Waffen"), ähnlich wie für nukleare oder biologische Waffen. Russell ist auch kein Technikfeind oder Gegner Künstlicher Intelligenz (KI). Ganz im Gegenteil: Stuart Russell hat als Professor für Informatik an der University of California, Berkeley, mehrere Standardwerke zur KI verfasst und einigen der intelligentesten Robotern der Welt grundlegende Fähigkeiten verpasst.
Doch nach 35 Jahren wendet er sich jetzt gegen sein eigenes Forschungsfeld – das er dennoch grundsätzlich weiterhin für eine gute Sache hält: "Unsere gesamte Zivilisation, alles, was wir wertschätzen, beruht auf unserer Intelligenz. Noch mehr Intelligenz, und für die menschliche Rasse gibt es keine Limits mehr." Für LAWs trifft das ebenfalls zu, nur dass nützliche Limits beseitigt werden: Einzelpersonen könnten einen Angriff ausführen, dessen Opferzahlen an den einer nuklearen Bombe heranreichen. "LAWs sind einfacher zu realisieren als selbstfahrende Autos, sie benötigen viel geringere Leistungsstandards", erklärt Russell. Und tatsächlich töten die ersten Slaughterbots bereits.
Armenien im April 2016: Das kleine Land im Kaukasus ist der Schauplatz, auf dem zum ersten Mal in der Weltgeschichte Menschen durch eine autonom aus der Luft kämpfende Waffe sterben. Eine Drohne, mit drei Metern Tragflächenspannweite nicht viel größer als ein Seeadler, identifiziert selbstständig einen Truppentransporter des Gegners, stürzt herab und bringt einen 23 Kilogramm schweren Sprengkopf zur Explosion. Sieben Soldaten sind sofort tot.
Revolution der Kriegsführung
Der Tag markiert nicht weniger als eine Revolution in der Kriegsführung: Tatsächlich gelten in der Militärwissenschaft LAWs nach der Erfindung von Schießpulver und Atombombe als dritte Revolution der Kriegsführung, da ihr Aufkommen die Dynamik der Schlachtfelder radikal verändert. Dass der erste Einsatz eines fliegenden Killerroboters dennoch weitgehend unbemerkt bleibt, liegt wohl daran, dass er in einem bereits Jahrzehnte dauernden Grenzkonflikt zwischen Armenien und Aserbaidschan passiert – weit weg von den Augen der Weltöffentlichkeit.
Die Armenier starben durch eine Spezialdrohne vom Typ Harop. Dabei handelt es sich um eine Mischung aus Lenkrakete (mit programmiertem Ziel) und herkömmlicher Drohne (Fernsteuerung durch Piloten am Boden): Tatsächlich können die in Israel entwickelten Harops autonom fliegen, mit einem elektronisch-optischen Sensor selbstständig vom Anwender definierte Ziele erkennen und diese in einem Kamikaze-Schlag auslöschen. Findet eine Harop während der sechs Stunden Einsatzdauer nichts Passendes, fliegt sie selbstständig zur Basis zurück.
Noch kosten LAWs mehrere Millionen Dollar. Noch sind die Sensoren relativ einfach gestrickt, ihr Einsatzraum beschränkt sich also auf bekanntes Feindesgebiet. Noch gibt es die menschliche Eingriffsmöglichkeit in den tödlichen Kreislauf der Algorithmen. Doch was, wenn die Technik kleiner, intelligenter und vor allem billiger wird? Wenn es sich nicht mehr lohnt, jede einzelne Drohne durch einen Piloten zu steuern?
Killer aus dem 3-D-Drucker
"Im US-Militärbereich will man dahin, dass man quasi aus dem 3-D-Drucker Hunderte oder Tausende von Wegwerf-Systemen ad hoc produzieren kann, so wie man sie eben gerade braucht", erklärt Frank Sauer von der Universität der Bundeswehr. "Und die funktionieren nur mit relativ großer Autonomie." Die DARPA, eine Elite-Forschungsbehörde des US-Verteidigungsministeriums und unter anderem Erfinder des Vorläufers des Internets, der Tarnkappentechnik für Militärjets oder des GPS, arbeitet bereits an Slaughterbots, die laut dem Programmmanager Jean-Charles Ledé "wie Wölfe in Rudeln mit minimaler Kommunikation" arbeiten. Aber wie realistisch sind solche Schwarmangriffe wirklich?
Noch vor wenigen Jahren konnten Computer nicht zwischen einer Katze und einem Hund unterscheiden. Heute benutzen Algorithmen beim "Betrachten" von Daten dagegen Zusammenhänge, deren Zustandekommen selbst Fachleute nicht mehr nachvollziehen können – ihnen bleibt nur noch das Staunen: Eine Software der Oxford University kann aus einem Foto mit über 90-prozentiger Trefferquote die sexuelle Orientierung des abgebildeten Mannes erkennen – und niemand versteht, wie das der Computer macht.
Menschen verzeichnen dabei höchstens 60 Prozent richtige Vorhersagen, kaum besser als blind zu raten. Und noch vor Jahren brauchten Computer monatelang, um im Schach Großmeisterniveau zu erreichen. Matthew Lai vom University College London hat einen Algorithmus programmiert, der quasi für sich selbst die beste Lernstrategie entwickelt. Nach nicht einmal 72 Stunden, in denen er gegen sich selbst spielte, war er besser als 98 Prozent aller menschlichen Gegner weltweit. Einen Slaughterbot zu erschaffen, der ein bestimmtes Ziel erkennen und ausschalten kann, ist dagegen Kinderkram: Eine Funktion zur Gesichtserkennung steckt beispielsweise bereits heute in jedem besseren Smartphone.
Computer übernehmen das Töten
Längst verfügen nicht nur Großmächte über Nuklearraketen, Drohnen oder Cyber-Krieger. Damit die USA den technologischen Vorsprung ihres Militärs aufrechterhalten können, bleibt ihnen kaum mehr, als ihre Waffen immer schneller und intelligenter zu machen. Das provoziert einen gigantischen Rüstungswettlauf: "Geschwindigkeit tötet: Wenn ich schnelle Verteidigungssysteme habe, brauche ich noch schnellere Angriffssysteme, so schaukelt sich das hoch", erklärt Sauer. Das Problem: Egal, wie schnell die Waffen der Zukunft töten, das menschliche Gehirn lässt sich in dieser Hinsicht nicht optimieren, es "stört" die Effizienz der Algorithmen.
"KI ist die Zukunft. Wer immer hier eine Führungsrolle einnimmt, wird zum Herrscher der Welt", erklärte der russische Präsident Wladimir Putin unlängst. "Wenn die Drohnen eines Landes von denen eines anderen Landes zerstört werden, bleibt Ersterem nur die Option, aufzugeben." Mindestens zehn nationale Forschungszentren in Russland bearbeiten das Problem. In den einmal pro Jahr in Genf stattfindenden UN-Sondersitzungen mit dem Ziel einer Regulierung militärischer KI gehörten daher auch im November 2017 wieder deren größte Förderer zu den Bremsern eines Verbots: neben Russland auch Israel und die USA. "Das ist fatal, denn das Zeitfenster fürs Handeln schließt sich in wenigen Jahren", so Russell.
Das Ende der menschlichen Rasse?
Auch Stephen Hawking sah das kritisch: "Ich denke, die Entwicklung einer voll funktionstüchtigen KI könnte das Ende der menschlichen Rasse bedeuten." Aber warum sollte eine Maschine ein eigenes Bewusstsein entwickeln? Russell erklärt: "Ganz einfach: Jede intelligente Maschine – selbst mit einer so einfachen Aufgabe wie 'Hol Kaffee' – erkennt: Abgeschaltet oder ohne Energie kann sie den Auftrag nicht mehr erfüllen. Sie wird daher mit all den ihr zur Verfügung stehenden Mitteln einen Kontrollverlust zu verhindern versuchen." Die Maschine entwickelt also zwangsläufig einen Selbsterhaltungstrieb, wie ein Mensch. Und warum baut der dann nicht einfach einen Notaus-Knopf ein? "Dann wären ja auch all die positiven Effekte einfach von jedermann wegzuwischen."
"Eine KI braucht dazu weder Drohnen noch die Kontrolle über das Internet, um die Menschheit auszulöschen", erklärt der KI-Forscher Eliezer Yudkowsky. "Das Problem ist nicht, dass sie Waffen hat, sondern dass sie schlauer ist als wir. Ein paar manipulierte Bakterien würden schon reichen, die Menschheit auszulöschen." In der Wissenschaft ist die derzeitige Situation der Menschheit als "Gorilla-Problem" bekannt: Vor rund zehn Millionen Jahren ließen die Vorfahren der Menschenaffen die Abspaltung einer körperlich unter-, aber geistig extrem überlegenen Spezies zu.
Heute hängt die Existenz der Gorillas vom Wohlwollen dieser Spezies ab. Das Schicksal der Gorillas könnte sich bald mit uns selbst wiederholen: Sollte eine allumfassende KI nicht mit absolut unüberwindbaren Software-Barrieren ausgestattet sein, würde sie sich quasi wie ein lichtschnell denkender, allwissender Hacker von ihren in Zeitlupe reagierenden Erschaffern zu emanzipieren versuchen. "Eine KI muss im ersten Versuch perfekt programmiert sein", erklärt Yudkowsky. Denn für Reset, Software-Update oder Neuinstallation gibt es unter Umständen keine Chance mehr. "Und ich bin mir nicht sicher, ob ich derjenige am Reset-Schalter sein will", erklärt der Autound Raketenbauer Elon Musk. "Denn ich wäre der Erste, den die Maschine tötet."