WiWo App Jetzt gratis testen!
Anzeigen

Künstliche Intelligenz Braucht KI eigene Gesetze?

Autonomes Fahren, Chatbots, digitale Assistenten: Künstliche Intelligenz spielt in immer mehr Bereichen eine Rolle. Müssen deshalb für die KI neue Gesetze her? Ja, sagt Tesla-Gründer Elon Musk - und erntet Widerspruch.

Von Facebook und Siri über selbstfahrende Autos bis hin zum Pflegeroboter: Lernende Maschinen sind mitunter Zukunftsmusik, gehören aber auch längst zu unserem Alltag. Aus dem sie auch nicht mehr verschwinden werden.

Das Thema Künstliche Intelligenz beschäftigt die Menschen jedoch nicht nur auf positive Art: Tesla-Chef Elon Musk etwa warnt davor, dass unkontrollierbare künstliche Intelligenz die wohl größte Gefahr für die Menschheit darstelle. Er wünscht sich spezielle Gesetze für die Maschinen. Man könne bei lernenden Maschinen nicht den üblichen Weg gehen, dass Regeln erst festgelegt würden, wenn schlimme Sachen passiert seien. „Wenn wir bei künstlicher Intelligenz nur reagieren, kommt die Regulierung zu spät“, sagte er im Sommer vor US-Gouverneuren. Was sie denn machen wollten, wenn eine hochentwickelte Maschine einen Krieg starten würde, um den Preis bestimmter Aktien zu beeinflussen?

Jörg-Alexander Paul sieht die Rolle von KI in unserer Gesellschaft deutlich entspannter. „Mich wundert es immer, wenn nach neuen Gesetzen gerufen wird“, sagt der IT-Rechtsexperte und Partner der Wirtschaftskanzlei Bird & Bird. „Abgesehen vielleicht vom Strafrecht können wir allen Herausforderungen mit den bestehenden Gesetzen begegnen. Wir müssen sie nur anwenden.“

Hinter Forderungen wie der von Musk sieht er vor allem die Angst vor dem Unbekannten. „Ich bin mir ganz sicher: Sobald das erste autonome Fahrzeug einen Menschen verletzt, wird laut nach Verboten gerufen“, so der Rechtsexperte. Forderungen nach strengeren Regeln gibt es für smarte Autos bereits. So wünscht sich beispielsweise der frühere Verfassungsrichter Udo Di Fabio höhere Sicherheitsanforderungen an autonome Fahrzeuge.

In diesen Situationen möchten die Deutschen autonom fahren

Andere geben sich überzeugt, dass autonome Autos sicherer sind, als die von Menschen gesteuerten. Da fast alle Unfälle auf menschliches Versagen zurückzuführen seien, reduziere sich die Unfallhäufigkeit durch autonomes Fahren, glaubt zum Beispiel Daimler-Entwicklungsvorstand Ola Källenius. Eine Frage, die Autobauer, Versicherer und Ethikkommission beim Thema umtreibt, ist die nach der Verantwortung – und nach den Entscheidungen, die Maschinen treffen könnten.

Oft wird die Frage diskutiert, was KI tun würde, wenn ein Unfall unvermeidbar sei und das Auto wahlweise einen jungen Menschen – vielleicht eine Mutter mit Kinderwagen – oder einen alten Menschen verletzen werde. Oder wie sich KI entscheiden würde: den gut gepanzerten SUV von Audi rammen oder die alte klapprige Studentenkiste?

Ethische Grundregeln für autonome Autos

Für Rechtsexperte Paul ist dieses Gedankenspiel nicht zielführend. Wenn ein menschlicher Fahrer bei einem unausweichlichen Unfall das Lenkrad nach rechts oder links reißt, wird nachher schließlich auch nicht gefragt: Hätten Sie nicht den Rentner erwischen können?

„Wir bewerten kein Leben. Wir entscheiden nicht, dass junge Menschen mehr wert sind als alte, oder kranke Menschen weniger wert sind, als gesunde. Insofern darf die Entscheidung – in einer unabwendbaren Situation – nicht richtig oder falsch sein. Weder beim Menschen noch bei KI“, sagt Paul.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%