Künstliche Intelligenz als Waffe Forscher warnen vor Killer-Robotern

Experten für Künstliche Intelligenz sind alarmiert: Schon in wenigen Jahren können Maschinen selbständig Menschen töten. Lässt sich ein Wettrüsten noch verhindern?

Die wichtigsten ferngesteuerten Waffen
MQ-9-Reaper-Drohne Quelle: dpa
Minidrohne Prox Dynamics PH-100 Black Hornet Quelle: PR
Unbemannter Panzer Ripsaw Quelle: U.S. Army Public Domain
Tauchroboter "Ghost Swimmer" Quelle: U.S. Navy

George Dysen macht sich keine Illusionen, wie mächtig Maschinen heue schon geworden sind. Sie hätten begonnen, die Kontrolle zu übernehmen, schrieb der amerikanische Wissenschaftshistoriker im Januar in einem Gastbeitrag für die WirtschaftsWoche. Und es sei nur noch eine Frage der Zeit, bis Künstliche Intelligenz den Menschen steuere. „Die Maschinen nähern sich bereits einem Punkt, an dem es kein Zurück mehr gibt.“

Nun hat Dysen, zusammen mit 2000 anderen Wissenschaftlern und Unternehmern, einen offenen Brief unterschrieben, der noch viel alarmierender klingt. Autonome Waffen, heißt es in dem Appell, könnten bald selbständig menschliche Ziele angreifen, ohne dass ein Mensch dabei eingreife. „Künstliche  Intelligenz (KI) hat einen Punkt erreicht, an dem der Einsatz eines solchen Systems in wenigen Jahren möglich ist, nicht in Jahrzehnten.“ Diese Entwicklung sei so entscheidend wie zuvor nur die Erfindung der Atomwaffe und des Schießpulvers.

Androiden im Anmarsch

Zu den Unterzeichnern des Briefs gehören 2000 Experten aus Wissenschaft und Wirtschaft, darunter der Astrophysiker Stephen Hawking, der Weltraumunternehmer Elon Musk, Apple-Mitgründer Steve Wozniak und der Sprachwissenschaftler Noam Chomsky. Unterschrieben haben auch zahlreiche führende KI-Experten: Yann LeCun, der für Facebook denkende Maschinen entwickelt, Geoffrey Hinton von der Universität Toronto, der als führender Entwickler so genannter Deep-Learning-Algorithmen gilt, und Demis Hassabis, der bei Google clevere Computer baut.

Experten für internationalen Bann

Anders als Nuklearwaffen, warnen die Experten, ließen sich Robo-Kämpfer billig und in Massen herstellen. „Autonome Waffen sind die Kalashnikov von morgen“, heißt es in dem Brief. Es sei nur eine Frage der Zeit, bis sie auf dem Schwarzmarkt landeten - und in die Hände von Warlords. Sie seien ideale Werkzeuge, um ethnische Kriege zu führen und ganze Nationen zu destabilisieren. „Ein militärisches KI-Rennen zu starten“, so das Resümee, "ist eine schlechte Idee.“

Wie Roboter sicherer werden sollen

Was aber tun? Die Experten schlagen vor, dass sich Politiker für einen internationalen Bann autonomer Waffen stark machen. Ihr Vorbild seien Chemiker und Physiker, die sich in der Vergangenheit erfolgreich für ein Verbot chemischer und biologischer Kampfstoffe stark gemacht hätten. Seit 1975 haben sich 170 Staaten in einem gemeinsam Vertag darauf geeinigt, keine Biowaffen zu entwickeln, herzustellen und zu lagern.

Doch ob ein solches Abkommen reicht, um Killerdrohnen zu verhindern? Schon heute sind lernende Maschinen so weit verbreitet, dass es Verbrechern nicht schwer fallen dürfte, ihre Algorithmen zu kopieren und für den Bau von Kampfrobotern zu verwenden. Zahlreiche Startups bringen Computern bei, Objekte zu erkennen, sich im Raum zu orientieren und Menschen anhand ihres Gesichts, Gangs oder ihrer Kleidung zu identifizieren. Und dank Radar-Sensoren können erste Drohnen selbständig Hindernissen ausweichen.

Der KI-Philosoph Nick Bostrom von der Universität Oxford, der den Brief nicht unterschrieben hat, warnt in seinem Buch „Superintelligence" denn auch davor, dass künftig kleine Gruppen von Entwicklern mächtige KI-Systeme entwickeln könnten - die dann sogar intelligenter als die schlausten Menschen sind. „Es ist möglich“, schreibt Bostrom, „dass die letzte kritische Idee, die den Durchbruch bringt, von einer Einzelperson oder einer kleinen Gruppe kommt.“

In Arbeit
Bitte entschuldigen Sie. Hier steht ein Element, an dem derzeit noch gearbeitet wird. Wir kümmern uns darum, alle Elemente der WirtschaftsWoche zeitnah für Sie einzubauen.

Umso wichtiger, dass die Entwicklung von Tötungs-Algorithmen zumindest in offiziellen Forschungseinrichtungen verboten wird. Dann können sich Hacker die Code-Stücke nicht stehlen und zu kriminellen Zwecken einsetzen. Und bei allen Gefahren halten viele Experten intelligente Maschinen für ein sehr nützliches Instrument - etwa um Ressourcen besser zu nutzen und den Klimawandel einzugrenzen. "Wir müssen von Fall zu Fall entscheiden, wann wir die Kontrolle abgeben wollen“, schreibt Guy Hoffmann, Roboter-Experte an der School of Communications in Herzlyra, auf WiWo Online, "und wenn ja, in welchem Maß."

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%