Zukunftstechnologie Wie gefährlich ist künstliche Intelligenz?

Der tödliche Unfall mit einem Roboterauto in den USA wirft ein Schlaglicht auf die Risiken künstlicher Intelligenz. Datenschützer fordern eine Regulierung.

  • Teilen per:
  • Teilen per:
Der Mensch denkt, die Software auch. Quelle: picture alliance / Stephan Goerl

Berlin Für Union und SPD ist eines der großen Projekte dieser Legislaturperiode: Gemeinsam mit Frankreich soll ein Zentrum für künstliche Intelligenz (KI) errichtet werden. Parallel soll ein „Masterplan künstliche Intelligenz auf nationaler Ebene“ erarbeitet werden. So steht es im Koalitionsvertrag.

Für die neue Bundesforschungsministerin Anja Karliczek liegt auf der Hand, wohin die Reise gehen soll. „Wir haben jetzt die Chance, gemeinsame Schritte ins Auge zu fassen, damit wir bei der künstlichen Intelligenz weltweit mitgestalten können“, sagte die CDU-Politikerin am Donnerstag in Paris. Dort stellte Frankreichs Staatspräsident Emmanuel Macron die Strategie seines Landes zur künstlichen Intelligenz vor.

Karliczek betonte vor allem die Vorteile der Zukunftstechnologie, doch davon muss sie auch die Skeptiker überzeugen. Denn Künstliche Intelligenz birgt auch etliche Risiken. Deshalb halten Experten wie der Hamburger Datenschützer Johannes Caspar eine Regulierung für unumgänglich.

„Trotz der unbestreitbaren positiven Potentiale, die der Einsatz selbstlernender Systeme, etwa für die Verkehrssicherheit, mit sich bringen kann, stellt die Künstliche Intelligenz dennoch eine Risikotechnologie ersten Ranges dar“, sagte Caspar dem Handelsblatt. „Automatisierte Einzelentscheidungen, die durch selbstlernende Systeme ausgeführt werden, ersetzen die menschliche Entscheidungsfreiheit durch eine intransparente Maschinenlogik.“

Die Entwicklung vollziehe sich zunächst in kleinen Schritten, sagte Caspar weiter. Bereits beim voll automatisierten Fahren würden die Probleme sichtbar. „Die Entscheidung über Leben und Tod im Straßenverkehr darf nicht einem System überlassen werden, das sich unkontrolliert selbst fortschreibt und steuert“, betonte der Datenschützer. Das gelte auch, wenn es gelingen sollte, menschliches Fehlverhalten dadurch zu minimieren. „Insoweit bedarf der Einsatz selbstlernender Steuerungssoftware einer staatlichen Zulassung und einer Kontrolle durch unabhängige Stellen“, forderte Caspar.

Die Forderung des Datenschützers kommt nicht von ungefähr. Erst kürzlich kam eine Frau bei einem Unfall mit einem Roboterwagen von Uber ums Leben. Der Vorfall, bei dem die Frau, eine mehrspurige Straße überquerte, ereignete sich bei einer nächtlichen Testfahrt in der Stadt Tempe im US-Bundesstaat Arizona. Der Unfall-Hergang warf die Frage auf, warum der Wagen weder abbremste noch auswich, obwohl die Sensoren die Fußgängerin, die ein Fahrrad neben sich schob, erkannt haben müssten.

Uber setzte daraufhin alle Fahrten mit seinen Roboterwagen aus, Arizona verbannte die Wagen zudem vorerst von der Straße. Neben Arizona und San Francisco war Uber bisher auch in Pittsburgh und Toronto unterwegs. Andere Entwickler wie Toyota und das Start-up NuTonomy stoppten ihre Fahrten vorsichtshalber auch.

Auch der frühere Verfassungsrichter Udo di Fabio sieht einen Regulierungsbedarf. Er forderte den deutschen und den europäischen Gesetzgeber auf, schnell Konsequenzen aus dem tödlichen Unfall zu ziehen. „Wenn in der Fläche automatisierte Fahrsysteme zugelassen werden, müssen sie signifikant sicherer sein als menschliche Fahrer. Der Schutz menschlichen Lebens genießt höchste Priorität“, schrieb er in ein Gastbeitrag für das Handelsblatt.

Di Fabio kann einerseits zwar nachvollziehen, dass die Politik in Zeiten „eines harten Wettbewerbs um die künftige Mobilität“ unter einem einen großen Zeitdruck bei Entscheidungen steht. Wer auch morgen seine ethischen und rechtlichen Regeln durchsetzen wolle, müsse heute zwar technisch innovativ und wirtschaftlich wettbewerbsfähig sein, sonst werde er sich bald entweder hinter protektionistischen Mauern verstecken müssen oder aber Zulieferbetrieb einer globalen Werkbank mit Firmensitz in Kalifornien oder Shanghai werden. Dennoch aber dürften sich politische Entscheidungen nicht allein diesem Druck beugen, mahnte der Staatsrechtler.

„Wir sollten heute in Europa und in der ganzen westlichen Welt ein paar Grundsätze in Erinnerung rufen. Der Westen ist immer offen für neue Technik, aber er unterwirft sich nicht blind, sondern fördert die Entwicklung und lässt die Menschen wählen, was sie wirklich wollen.“ Was auf die Straße gelange, müsse nach herrschenden Maßstäben hinreichend sicher sein, so di Fabio.

Forschungsministern Karliczek plädierte in Paris für ein Netzwerk aus deutschen und französischen „Exzellenz-Standorten“ für die Erforschung und Nutzung von künstlicher Intelligenz. „Auf dieser Basis stelle ich mir bilaterale Programme vor, bei denen Wissenschaft und Industrie aus beiden Ländern gemeinsam an konkreten Projekten arbeiten können.“ Die Absicht sei es, diese Aktivitäten dann als Bausteine in einen nationalen deutschen Aktionsplan einzubinden. „Künstliche Intelligenz ist eine Schlüsseltechnologie, ein Treiber für wirtschaftliche Entwicklung, ein Chancengeber für Forschung, Gesundheit und Mobilität“, sagte Karliczek.


„Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen“

Mit dieser Auffassung steht die CDU-Politikerin nicht allein. „Gemeinsam haben Deutschland und Frankreich die einmalige historische Chance, durch KI bei der zweiten Welle der Digitalisierung international eine Führungsrolle zu übernehmen“, sagte der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), Wolfgang Wahlster, der Nachrichtenagentur Reuters. Das DFKI ist das weltweit größte KI-Forschungszentrum.

Laut Wahlster arbeitet das DFKI seit etlichen Jahren in vielen Projekten mit dem französischen Forschungsinstitut für Informatik und Automatisierung, Inria, zusammen. „Ich sehe Inria und DFKI als die natürlichen Kernpartner für das Deutsch-Französische KI-Zentrum an.“ Beide Institute würden erstklassige Grundlagenforschung mit industrieorientierter Anwendung in kurzen Innovationszyklen verbinden. Die neue Generation von KI-Produkten zeichnet sich nach seinen Worten durch Selbstlernfähigkeiten, autonomes und proaktives Verhalten, Anpassung an den Nutzer und Selbsterklärungsfähigkeiten aus.

Die Schwerpunkte des künftigen deutsch-französischen Zentrums hängen nach den Worten des DFKI-Chefs von den Konsultationen auf Regierungsebene ab. „Ich habe in den ersten Gesprächen mit Vertretern von Inria und Cédric Villani als KI-Berater von Präsident Macron vorgeschlagen, KI-Leitprojekte im Bereich Industrie 4.0, der intelligenten Mobilität, der Smart Grids, dem Roboter-Einsatz in menschenfeindlichen Umgebungen sowie der Sprachtechnologie gemeinsam im großen Stil voranzutreiben.“

Zugleich dürfte die Debatte darüber weitergehen, wie ein möglicher Rechtsrahmen für die neue Technologie aussehen könnte. Eine Regulierung künstlicher Intelligenz hatte jüngst auch der SpaceX- und Tesla-Gründer Elon Musk gefordert. „Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen“, hatte Musk bei der Digital-Konferenz South By Southwest in Austin im US-Bundesstaat Texas gesagt. „Es ist wahnsinnig, dass wir Atomwaffen regulieren, nicht aber KI.“ Er selbst sei kein Fan von Regulation und Aufsicht. „Aber die Superintelligenz ist eine sehr ernste Bedrohung für die Öffentlichkeit.”

Caspar sagte dazu, diese Haltung eines namhaften Vertreters aus dem traditionell regulierungskritischen Silicon Valley müsse aufhorchen lassen. „Perspektivisch muss befürchtet werden, dass sich im Zuge der Entwicklung hin zu einer Superintelligenz ein rasanter Niedergang unserer humanen Werteordnung vollziehen wird“, warnte der Datenschützer. „Künstliche Intelligenz und komplexe Algorithmen stellen mit der menschlichen Vernunft auch unsere grundlegenden rechtlich-moralischen Präferenzen in Frage.“

Damit drohe, unser Rechts- und Gesellschaftssystem durch eine „autonome Funktionalität der Effizienz“ ersetzt zu werden. Caspar befürchtet in der Folge ein „Ende der Freiheit zum Irrtum“, was schließlich „das Ende der Menschheit, wie wir sie kennen“ markiere. „Das jedenfalls ist das Szenario, wenn es nicht gelingt, die menschliche Entscheidungsfreiheit im Verfahren der Digitalisierung dauerhaft zu etablieren“, so Caspar.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%