Ethische Algorithmen Haben Maschinen eine Moral?

Seite 2/3

Wie viel weiß das Roboterauto?

Einerseits liegt es im Interesse der Autokonzerne, die Insassen zu schützen. Sie sind ihre Kunden. „Ein Auto mit eingebautem Heldentod-Algorithmus wird keiner kaufen“, sagt Lüdemann. Andererseits ist es in Deutschland tabu, ein Menschenleben über ein anderes zu stellen. Als sich im vergangenen Herbst ein Manager von Daimler in einem Interview dafür aussprach, bei einem Unfall stets die Insassen des Fahrzeugs zu schützen, beeilte sich der Konzern, klarzustellen: Keinesfalls sei schon eine Entscheidung zugunsten der Insassen getroffen.

Die Möglichkeit, die Vorteile für zahlungskräftige Kunden ins Produkt zu programmieren, dürfte nicht nur Autokonzerne reizen. Aber ist das möglich?

Eric Hilgendorf saß in der deutschen Ethikkommission zum selbstfahrenden Auto. Ein Jurist zwischen Autoherstellern und Verbraucherschützern, Philosophen und Informatikern. Ein Jurist, der sich auch intensiv mit Rechtsinformatik befasst. „Von der Programmierung moralischer Regeln sind wir noch sehr weit entfernt“, sagt er. Das liege am Irrglauben, dass Maschinen in jeder kritischen Situation über alle Informationen verfügen. „Auch Sensoren sind nur begrenzt aufnahmefähig.“ Zudem ließen sich ethische Fragen und juristische Methoden, etwa die Abwägung zwischen verschiedenen Gütern, bislang nicht in Computercodes überführen.

So lernen Maschinen das Denken

Die Software, die in all den schlauen Maschinen steckt, ist darauf angelegt, selbst dazuzulernen. Sie nimmt dabei den Menschen als Modell – seine moralischen Makel eingeschlossen. Am deutlichsten zeigt sich dies, wenn man unter dem englischen Stichwort „professional haircut“ bei Google nach Bildern sucht. Zu sehen sind dann nur weiße Männer. Wer „unprofessional haircut“ eintippt, sieht nur schwarze Frauen. Algorithmen schreiben also auch rassistische Vorurteile sowie soziale Ungerechtigkeiten fort. Sie stecken schon in Puppen, die mit Kindern sprechen. Und nicht nur dort.

Die Polizei im englischen Durham will demnächst mit künstlicher Intelligenz darüber entscheiden, wie lange Verdächtige in Untersuchungshaft bleiben. Für ihre Empfehlung wägt die Software ab, wie schwer das Verbrechen wiegt, welche Vorstrafen der Verdächtige hat und wie hoch das Risiko ist, dass er flieht. Als Grundlage dient die örtliche Kriminalstatistik vergangener Jahre. In den USA wird solche Software bereits eingesetzt – und dort zeigt sich schon, wie trügerisch sie sein kann: Schwarze stuft sie etwa als gefährlicher ein als Weiße.

Was weiß der Roboter?

Jetzt, da die Maschinen, Spielzeug ebenso wie Sicherungssysteme, trainiert werden, geht es darum, was wir ihnen beibringen – und was wir ihnen besser vorenthalten. Soll etwa der Sensor im selbstfahrenden Auto wissen, dass eine Fußgängerin schwanger ist und deshalb womöglich schützenswert? Dass ein anderer Passant arbeitslos, ein dritter vorbestraft ist?

Sohan Dsouza macht die Probe aufs Exempel und lässt die Menschen entscheiden. Der Doktorand am Media Lab des Massachusetts Institute of Technology bei Boston hat mit Kollegen ein einfaches Onlinespiel entwickelt, das eine ernste Frage stellt: Wen würden Sie töten? Die Moral Machine stellt Szenarien zur Auswahl und fragt zum Beispiel: Soll das selbstfahrende Auto geradeaus rollen und einen Mann auf dem Zebrastreifen umfahren – oder ausweichen und die fünf Passagiere töten? Soll es geradeaus rasen und zwei Kinder, die im Fond sitzen, gegen die Wand fahren – oder ausweichen und zwei alte Passanten umbringen?

Die fünf Stufen des automatisierten Fahrens

Es sind Fragen, die gruseln und offenbar faszinieren: 3,5 Millionen Menschen haben die Moral Maschine schon angeklickt und ihre Wahl getroffen. Bei einigen Dilemmata, so haben Dsouza und seine Kollegen herausgefunden, neigen alle Menschen zu einer bestimmten Lösung, bei anderen gibt es starke kulturelle Unterschiede. In China, Osteuropa und Russland etwa seien die Menschen vorrangig am Leben der Fahrzeuginsassen interessiert – im Westen eher am Wohl der größeren Zahl. „Je nach Kultur, Land und Weltregion“, sagt Dsouza, „entscheiden die Menschen extrem unterschiedlich.“

Vor einem Jahr prallte ein auf Autopilot gestellter Tesla an einer Kreuzung mit einem Sattelschlepper zusammen. Das Auto hatte die weiße Seite des Lkws vor dem hellen Himmel nicht erkannt und deswegen nicht gebremst. Der Fahrer starb. Der Unfall galt als Beleg für eine defizitäre Technik. Er zeigte aber auch, wie US-Konzerne die Entwicklung des selbstfahrenden Autos vorantreiben: in der Praxis, auf dem Wege laufender Verbesserungen. Jedenfalls nicht auf dem Wege ethischer Debatten.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%