



George Dysen macht sich keine Illusionen, wie mächtig Maschinen heue schon geworden sind. Sie hätten begonnen, die Kontrolle zu übernehmen, schrieb der amerikanische Wissenschaftshistoriker im Januar in einem Gastbeitrag für die WirtschaftsWoche. Und es sei nur noch eine Frage der Zeit, bis Künstliche Intelligenz den Menschen steuere. „Die Maschinen nähern sich bereits einem Punkt, an dem es kein Zurück mehr gibt.“
Nun hat Dysen, zusammen mit 2000 anderen Wissenschaftlern und Unternehmern, einen offenen Brief unterschrieben, der noch viel alarmierender klingt. Autonome Waffen, heißt es in dem Appell, könnten bald selbständig menschliche Ziele angreifen, ohne dass ein Mensch dabei eingreife. „Künstliche Intelligenz (KI) hat einen Punkt erreicht, an dem der Einsatz eines solchen Systems in wenigen Jahren möglich ist, nicht in Jahrzehnten.“ Diese Entwicklung sei so entscheidend wie zuvor nur die Erfindung der Atomwaffe und des Schießpulvers.
Androiden im Anmarsch
Im Jahr 2000 wurden 7,4 Milliarden Dollar für Maschinen ausgegeben. Etwa 50 % für Industrie- und die andere Hälfte für Militärroboter.
Innerhalb von 5 Jahren stiegen die Ausgaben auf 10,8 Milliarden Dollar, darunter auch Kosten für Maschinen, die im Service-Bereich eingesetzt wurden.
2010 wurden bereits 15,1 Milliarden US-Dollar in schlaue Maschinen investiert, der größte Anteil in Industrieroboter.
26,9 Milliarden Dollar werden im Jahr 2015 voraussichtlich in Maschinen investiert, so die Prognose der Boston Consulting Group.
Die Prognose für das Jahr 2020 sagt voraus, dass in 5 Jahren 42,9 Milliarden Dollar für Maschinen ausgegeben werden.
Bis 2025 sollen die Ausgaben voraussichtlich auf 66,9 Milliarden Dollar ansteigen, darin eingeschlossen sind Kosten für Heim-, Service-, Industrie- und Militärroboter.
Zu den Unterzeichnern des Briefs gehören 2000 Experten aus Wissenschaft und Wirtschaft, darunter der Astrophysiker Stephen Hawking, der Weltraumunternehmer Elon Musk, Apple-Mitgründer Steve Wozniak und der Sprachwissenschaftler Noam Chomsky. Unterschrieben haben auch zahlreiche führende KI-Experten: Yann LeCun, der für Facebook denkende Maschinen entwickelt, Geoffrey Hinton von der Universität Toronto, der als führender Entwickler so genannter Deep-Learning-Algorithmen gilt, und Demis Hassabis, der bei Google clevere Computer baut.
Experten für internationalen Bann
Anders als Nuklearwaffen, warnen die Experten, ließen sich Robo-Kämpfer billig und in Massen herstellen. „Autonome Waffen sind die Kalashnikov von morgen“, heißt es in dem Brief. Es sei nur eine Frage der Zeit, bis sie auf dem Schwarzmarkt landeten - und in die Hände von Warlords. Sie seien ideale Werkzeuge, um ethnische Kriege zu führen und ganze Nationen zu destabilisieren. „Ein militärisches KI-Rennen zu starten“, so das Resümee, "ist eine schlechte Idee.“
Wie Roboter sicherer werden sollen
Eine Sensorhaut spürt, wo und wie fest sie berührt wird und stoppt den Arm bei Gefahr. Oder der Roboter weicht aus.
Scharfe Ecken und Kanten sind tabu; Polster schützen vor blauen Flecken. Gelenke und Greifer haben einen Einklemmschutz.
Mikrofone belauschen die Umwelt. Registrieren sie Angstschreie, halten sie den Roboter blitzschnell an.
Kameras und Laserscanner beobachten das Arbeitsumfeld. Droht eine Kollision, kann der Roboter warnen oder stoppen.
Die Sinne des Roboters verraten ihm, wie er Gefahren bannen kann. Algorithmen kontrollieren jede Aktion.
Ingenieure bauen Korpus und Arme aus extrem leichten Materialien. So können die Leichtgewichte niemanden schwer verletzen.
Per Laserstrahl oder Ultraschall ortet der Roboter seine Position und erkennt, ob ihm Menschen in die Quere kommen.
Was aber tun? Die Experten schlagen vor, dass sich Politiker für einen internationalen Bann autonomer Waffen stark machen. Ihr Vorbild seien Chemiker und Physiker, die sich in der Vergangenheit erfolgreich für ein Verbot chemischer und biologischer Kampfstoffe stark gemacht hätten. Seit 1975 haben sich 170 Staaten in einem gemeinsam Vertag darauf geeinigt, keine Biowaffen zu entwickeln, herzustellen und zu lagern.
Doch ob ein solches Abkommen reicht, um Killerdrohnen zu verhindern? Schon heute sind lernende Maschinen so weit verbreitet, dass es Verbrechern nicht schwer fallen dürfte, ihre Algorithmen zu kopieren und für den Bau von Kampfrobotern zu verwenden. Zahlreiche Startups bringen Computern bei, Objekte zu erkennen, sich im Raum zu orientieren und Menschen anhand ihres Gesichts, Gangs oder ihrer Kleidung zu identifizieren. Und dank Radar-Sensoren können erste Drohnen selbständig Hindernissen ausweichen.
Der KI-Philosoph Nick Bostrom von der Universität Oxford, der den Brief nicht unterschrieben hat, warnt in seinem Buch „Superintelligence" denn auch davor, dass künftig kleine Gruppen von Entwicklern mächtige KI-Systeme entwickeln könnten - die dann sogar intelligenter als die schlausten Menschen sind. „Es ist möglich“, schreibt Bostrom, „dass die letzte kritische Idee, die den Durchbruch bringt, von einer Einzelperson oder einer kleinen Gruppe kommt.“
Umso wichtiger, dass die Entwicklung von Tötungs-Algorithmen zumindest in offiziellen Forschungseinrichtungen verboten wird. Dann können sich Hacker die Code-Stücke nicht stehlen und zu kriminellen Zwecken einsetzen. Und bei allen Gefahren halten viele Experten intelligente Maschinen für ein sehr nützliches Instrument - etwa um Ressourcen besser zu nutzen und den Klimawandel einzugrenzen. "Wir müssen von Fall zu Fall entscheiden, wann wir die Kontrolle abgeben wollen“, schreibt Guy Hoffmann, Roboter-Experte an der School of Communications in Herzlyra, auf WiWo Online, "und wenn ja, in welchem Maß."