WiWo App Jetzt gratis testen
Anzeigen

Zukunftstechnologie Warum die Politik Künstliche Intelligenz regulieren will

Künstliche Intelligenz gefährlicher als Atomwaffen? Die Warnung von Tesla-Gründer Musk kommt in Berlin nicht gut an. Dennoch hält man Regeln für die Technologie für unabdingbar.

BerlinMan kann von Künstlicher Intelligenz (KI) halten, was man will. Aber die Warnungen, die SpaceX- und Tesla-Gründer Elon Musk bei der Digital-Konferenz South by Southwest (SXSW) im texanischen Austin verbreitet hat, sind manchem dann doch etwas zu dick aufgetragen.

Ein solcher „Alarmismus“ sei nicht angesagt, sagte der Digitalexperte der Grünen-Bundestagsfraktion, Dieter Janecek, dem Handelsblatt. Und auch der CDU-Digitalpolitiker Thomas Jarzombek hält Musks hält so viel Trommelfeuer gegen die Zukunftstechnologie für unangebracht.

Musk hatte gesagt: „Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen.“ Er selbst sei zwar kein Fan von Regulation und Aufsicht. Die „Superintelligenz“ sei aber eine „sehr ernste Bedrohung für die Öffentlichkeit“. Es sei daher extrem wichtig, dass die Technologie sicher entwickelt werde.

Nicht wenige KI-Forscher teilten die Auffassung von Musk, hielt Jarzombek dagegen. Zumal die Technologie heute zwar sehr schnell sehr spezifische Aufgaben lernen und umsetzen könne, das allgemeine Denken aber eben „noch gar nicht“. Und auch Janecek gab zu bedenken: „Wir werden es nicht morgen schon mit irgendeiner Superintelligenz zu tun haben.“

Gleichwohl würden Prototypen selbstfahrender Autos bereits im Straßenverkehr eingesetzt, während wichtige technische, strafrechtliche und Haftungsfragen bisher nicht zufriedenstellend geklärt seien. „Hier haben wir eindeutigen Nachholbedarf“, betonte der Grünen-Politiker. „Denn welche Chancen oder welche Bedrohungen mit technologischem Fortschritt einhergehen, hängt immer davon ab, welchen Regeln der Einsatz der Technologie unterliegt und inwiefern Transparenz und demokratische Kontrolle hergestellt sind.“

Janecek fordert denn auch wie Jarzombek einen Regulierungsrahmen für Künstliche Intelligenz. „Eine Regulierung beziehungsweise ethische Begrenzung von KI ist absolut denkbar, allerdings nicht auf der nationalen Ebene“, sagte Jarzombek. „Das muss ähnlich wie der Sperrvertrag für Atomwaffen global verabredet werden, ansonsten würde sich Deutschland oder Europa aus dem Markt rausnehmen.“

Union und SPD würden nun, wie in der Koalitionsvereinbarung festgeschrieben, einen „Masterplan“ zu Künstlichen Intelligenz auflegen und auch ein gemeinsames Forschungszentrum mit Frankreich dazu aufbauen. „Erste Gespräche laufen bereits“, so Jarzombek. In der vergangenen Woche haben sich nach Informationen des Handelsblatts auf parlamentarischer Ebene Arbeitsgruppen sowohl in Berlin als in Paris konstituiert.

Wichtig sei, dass Deutschland bei der gesamten Entwicklung den Anschluss nicht verliere. „Russland und China beispielsweise sind hier sehr aggressiv unterwegs“, betonte der CDU-Politiker.

Auch der Grünen-Politiker Janecek mahnte für den Einsatz von Künstlicher Intelligenz „dringend klare Regeln, transparente Kriterien und definierte Aufgabenbeschreibungen“ an. „Hier hinkt die Politik der faktischen Standardsetzung durch international agierende Unternehmen hinterher“, sagte Janecek.

Künstliche Intelligenz spielt nicht etwa nur beim selbstfahrenden Auto eine Rolle. Im praktischen Alltag arbeitet die Technologie mittels Algorithmen etwa beim Antrag auf einen Bankkredit oder beim Online-Einkauf im Hintergrund. Wer aber über den Einsatz wacht, ist noch eine offene Frage.

Es sei eine breite politische und gesellschaftliche Diskussion um die Regulierung künstlicher Intelligenz erforderlich, mahnten am Montag in Berlin Vertreter aus Politik und Wirtschaft an. „Wir wollen für die Bedeutung des Themas werben“, sagte Jens Zimmermann, netzpolitischer Sprecher der SPD-Fraktion im Bundestag. Es brauche künftig Institutionen, die für die nötige Transparenz sorgten.

Solche Institutionen müssten die relevanten Anwendungen auf Diskriminierungsschutz ganz ähnlich wie in der analogen Welt überprüfen können, sagte Klaus Müller, Chef des Verbraucherzentrale Bundesverbands (VZBV). Müller schlug eine Stelle vor, die ähnlich wie die Finanzmarktaufsicht Bafin arbeite.

Um die Kreditwürdigkeit eines Kunden zu prüfen, setzen zum Beispiel Banken Algorithmen zur Prüfung ein. Die Frage sei aber, welche Daten eingegeben würden, sagte Müller. Was könne der Verbraucher tun, wenn es dort bei der Dateneingabe Fehler gegeben habe? „Verbraucher dürfen nicht unter die Räder kommen.“ In solchen Fälle müsse es die Möglichkeit der Einzelfallklärung geben.

Unternehmen sehen allerdings die von ihnen eingesetzten Algorithmen in der Regel als Betriebsgeheimnis an. „Dabei muss es aber nicht darum gehen, das Heiligste vom Heiligsten offenzulegen“, sagte Zimmermann. Coca-Cola müsse auch nicht gezwungen werden, ihr Rezept zu veröffentlichen, um die Möglichkeit zu haben, das Getränk als nicht besonders gesund einzustufen.

In Deutschland sei die Debatte um künstliche Intelligenz noch immer von Angst getrieben, sagte Tanja Böhm, Leiterin der Hauptstadtrepräsentanz von Microsoft. Dabei habe sie ein enormes Potenzial für zahlreiche Lebens- und Arbeitsverhältnisse, sei es in der Gesundheitsversorgung, der Landwirtschaft oder beim Umweltschutz.

Algorithmen könnten helfen, kreative, strategische und effizientere Entscheidungen zu treffen. Microsoft setze sich dafür ein, dass bereits bei der Entwicklung Aspekte der Fairness, des Datenschutzes, der Inklusion, Transparenz und Verantwortlichkeit berücksichtigt würden.

Die Idee eines Algorithmen-TÜVs war in der Diskussion, zu der das Wirtschaftsforum der SPD geladen hatte, schnell vom Tisch. Mit einem Siegel sei es nicht getan, sagte Zimmermann. Das würde die Menschen eher in einer „gefährlichen Sicherheit wiegen“.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%