Ethische Algorithmen Haben Maschinen eine Moral?

Quelle: Getty Images

Autonome Autos und Sicherheitsroboter: Wer die Maschinen derzeit programmiert und zum Erfolg bringt, hat Macht. Bei der Beantwortung der Frage: "Wen würden Sie töten?" gibt es große kulturelle Unterschiede.

Der Tag wird kommen, an dem es kracht. An dem ein Auto eine steile Straße hinabrollt, sich der Passagier gerade eine Pause gönnt – und plötzlich vor ihm eine Frau mit dem Fahrrad stürzt, im Kindersitz ein kleiner Junge. Ein paar Millisekunden werden der Software reichen, um festzustellen: Der Bremsweg ist zu kurz. Was soll das selbstfahrende Auto tun? Fährt es geradeaus, überrollt es Mutter und Kind. Reißt es das Steuer nach links, stürzen Auto und Fahrer einen Abhang hinunter. Drei Menschenleben, zwei Optionen.

Physik trifft auf Philosophie

Kürzlich hat eine vom Bundesverkehrsministerium eingesetzte Ethikkommission 20 Regeln fürs selbstfahrende Auto vorgelegt. Vor der Frage, ob ein Auto bei einem unvermeidlichen Unfall den Tod des einen oder anderen Menschen in Kauf nehmen soll, drückte sich das Gremium. Nur so viel entschied es: Man dürfe Menschenleben nicht gegeneinander aufrechnen. Aber kann man einem Algorithmus überhaupt vorschreiben, keine Schlüsse aus Daten zu ziehen, auf deren Grundlage er arbeitet?

Dass vom Menschen erschaffene Maschinen die Macht ergreifen, war lange Zeit Science-Fiction – taugt aber heute schon zur Prognose. Algorithmen haben große Spielräume. Sie lotsen uns durch den Straßenverkehr, sie entscheiden, was wir lesen und hören wollen, wer eine Versicherung bekommt, und empfehlen etwa Polizisten, wie lange ein Verdächtiger in Haft bleiben soll. Die Debatte um den Entscheidungsspielraum des selbstfahrenden Autos dient als Schablone für Art und Umfang von Maschinendiensten in der Zukunft – für Roboter in der Fabrik, die mit Menschen zusammenarbeiten, oder Rechner im Krankenhaus, die Ärzten eine bestimmte Therapie nahelegen. Lässt sich ethisches Handeln programmieren? Können wir Maschinen Moral beibringen?

Mattias Ulbrich ist Audis erster Mann für IT. Alle Experten, so betont er, seien sich darin einig, dass Unfälle mit Verletzten oder gar Toten durch automatisiertes Fahren seltener werden. „Heute ist bei mehr als 90 Prozent aller Unfälle menschliches Versagen beteiligt.“ Mag sein. Aber verliert ein Unfall seinen Schrecken dadurch, dass er selten wird? „Die Menschen wollen wissen, warum etwas passiert ist“, sagt Volker Lüdemann: „Wenn Sie Ihr Kind bei einem Unfall verlieren, reicht es Ihnen nicht, dass jemand den Schaden zahlt – und auf eine bessere Unfallstatistik verweist.“ Lüdemann ist Jurist. Sein Spezialgebiet: ethische Fragen der Digitalisierung.

Ethische Grundregeln für autonome Autos

Ein Mensch, vor dessen Auto plötzlich eine Radfahrerin stürzt, entscheidet reflexartig. In den meisten Fällen bremst er, mit Erfolg oder ohne. Eine Maschine aber rechnet in Bruchteilen von Sekunden verschiedene Optionen durch – und bewertet sie so, wie ihr dies ursprünglich einmal aufgetragen wurde. Der Tod der Radfahrerin ist dann nicht mehr verhängnisvoll oder schicksalhaft, sondern programmiert. Das ist das Dilemma, vor dem nun jene stehen, die Roboterautos mit Verkehrsregeln vertraut machen.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%