Ethische Algorithmen: Wie viel weiß das Roboterauto?

Ethische Algorithmen: Haben Maschinen eine Moral?

Wie viel weiß das Roboterauto?

Einerseits liegt es im Interesse der Autokonzerne, die Insassen zu schützen. Sie sind ihre Kunden. „Ein Auto mit eingebautem Heldentod-Algorithmus wird keiner kaufen“, sagt Lüdemann. Andererseits ist es in Deutschland tabu, ein Menschenleben über ein anderes zu stellen. Als sich im vergangenen Herbst ein Manager von Daimler in einem Interview dafür aussprach, bei einem Unfall stets die Insassen des Fahrzeugs zu schützen, beeilte sich der Konzern, klarzustellen: Keinesfalls sei schon eine Entscheidung zugunsten der Insassen getroffen.

Künstliche Intelligenz Wie können wir Maschinen Moral beibringen?

Roboter lenken Autos, behandeln Patienten, ziehen in den Krieg – und entscheiden über Leben und Tod. Können wir Künstlicher Intelligenz beibringen, nach ethischen Prinzipien zu handeln - und nach welchen?

Ethik im Straßenverkehr: Wie man Maschinen Moral beibringt. Quelle: PR

Die Möglichkeit, die Vorteile für zahlungskräftige Kunden ins Produkt zu programmieren, dürfte nicht nur Autokonzerne reizen. Aber ist das möglich?

Eric Hilgendorf saß in der deutschen Ethikkommission zum selbstfahrenden Auto. Ein Jurist zwischen Autoherstellern und Verbraucherschützern, Philosophen und Informatikern. Ein Jurist, der sich auch intensiv mit Rechtsinformatik befasst. „Von der Programmierung moralischer Regeln sind wir noch sehr weit entfernt“, sagt er. Das liege am Irrglauben, dass Maschinen in jeder kritischen Situation über alle Informationen verfügen. „Auch Sensoren sind nur begrenzt aufnahmefähig.“ Zudem ließen sich ethische Fragen und juristische Methoden, etwa die Abwägung zwischen verschiedenen Gütern, bislang nicht in Computercodes überführen.

So lernen Maschinen das Denken

  • Wahrnehmen

    Mit Kameras, Mikrofonen und Sensoren erkunden die Maschinen ihre Umwelt. Sie speichern Bilder, Töne, Sprache, Lichtverhältnisse, Wetterbedingungen, erkennen Menschen und hören Anweisungen. Alles Voraussetzungen, um etwa ein Auto autonom zu steuern.

  • Verstehen

    Neuronale Netze, eine Art Nachbau des menschlichen Gehirns, analysieren und bewerten die Informationen. Sie greifen dabei auf einen internen Wissensspeicher zurück, der Milliarden Daten enthält, etwa über Personen, Orte, Produkte, und der immer weiter aufgefüllt wird. Die Software ist darauf trainiert, selbstständig Muster und Zusammenhänge bis hin zu subtilsten Merkmalen zu erkennen und so der Welt um sie herum einen Sinn zuzuordnen. Der Autopilot eines selbstfahrenden Autos würde aus dem Auftauchen lauter gelber Streifen und orangefarbener Hütchen zum Beispiel schließen, dass der Wagen sich einer Baustelle nähert.

  • Agieren

    Ist das System zu einer abschließenden Bewertung gekommen, leitet es daraus Handlungen, Entscheidungen und Empfehlungen ab - brems etwa das Auto ab. Bei sogenannten Deep Learning, der fortschrittlichsten Anwendung künstlicher Intelligenz, fließen die Erfahrungen aus den eigenen Reaktionen zurück ins System. Es lernt zum Beispiel, dass es zu abrupt gebremst hat und wird dies beim nächsten Mal anwenden.

Die Software, die in all den schlauen Maschinen steckt, ist darauf angelegt, selbst dazuzulernen. Sie nimmt dabei den Menschen als Modell – seine moralischen Makel eingeschlossen. Am deutlichsten zeigt sich dies, wenn man unter dem englischen Stichwort „professional haircut“ bei Google nach Bildern sucht. Zu sehen sind dann nur weiße Männer. Wer „unprofessional haircut“ eintippt, sieht nur schwarze Frauen. Algorithmen schreiben also auch rassistische Vorurteile sowie soziale Ungerechtigkeiten fort. Sie stecken schon in Puppen, die mit Kindern sprechen. Und nicht nur dort.

Die Polizei im englischen Durham will demnächst mit künstlicher Intelligenz darüber entscheiden, wie lange Verdächtige in Untersuchungshaft bleiben. Für ihre Empfehlung wägt die Software ab, wie schwer das Verbrechen wiegt, welche Vorstrafen der Verdächtige hat und wie hoch das Risiko ist, dass er flieht. Als Grundlage dient die örtliche Kriminalstatistik vergangener Jahre. In den USA wird solche Software bereits eingesetzt – und dort zeigt sich schon, wie trügerisch sie sein kann: Schwarze stuft sie etwa als gefährlicher ein als Weiße.

Serie: Künstliche Intelligenz Aufbruch in die Robo-Zukunft

Lange waren selbstlernende Maschinen Science Fiction. Experten erwarten nun, dass schon in 15 Jahren in nahezu jedem Haushalt Roboter für uns putzen und kochen. Welche Chancen und Gefahren birgt Künstliche Intelligenz?

Roboter steuert eine Maschine. Quelle: Getty Images

Was weiß der Roboter?

Jetzt, da die Maschinen, Spielzeug ebenso wie Sicherungssysteme, trainiert werden, geht es darum, was wir ihnen beibringen – und was wir ihnen besser vorenthalten. Soll etwa der Sensor im selbstfahrenden Auto wissen, dass eine Fußgängerin schwanger ist und deshalb womöglich schützenswert? Dass ein anderer Passant arbeitslos, ein dritter vorbestraft ist?

Sohan Dsouza macht die Probe aufs Exempel und lässt die Menschen entscheiden. Der Doktorand am Media Lab des Massachusetts Institute of Technology bei Boston hat mit Kollegen ein einfaches Onlinespiel entwickelt, das eine ernste Frage stellt: Wen würden Sie töten? Die Moral Machine stellt Szenarien zur Auswahl und fragt zum Beispiel: Soll das selbstfahrende Auto geradeaus rollen und einen Mann auf dem Zebrastreifen umfahren – oder ausweichen und die fünf Passagiere töten? Soll es geradeaus rasen und zwei Kinder, die im Fond sitzen, gegen die Wand fahren – oder ausweichen und zwei alte Passanten umbringen?

Die fünf Stufen des automatisierten Fahrens

  • Stufe 1: Fahrassistenten

    Der Fahrer lenkt, bremst und beschleunigt selbständig. Einfache Systeme wie Abstandshalter unterstützen ihn.

  • Stufe 2: Teilautomatisiertes Fahren

    Das elektronische System übernimmt bestimmte Funktionen wie etwa das automatische Einparken oder das Spurhalten. Der Fahrer bleibt aber weiter in der Verantwortung, die Hände bleiben am Lenkrad.

  • Stufe 3: Hochautomatisiertes Fahren

    Das Fahrzeug fährt weitgehend autonom, der Fahrer muss nicht mehr alles dauerhaft überwachen. Er darf die Hände vom Lenkrad nehmen, muss aber in der Lage sein, nach Vorwarnung die Kontrolle wieder zu übernehmen.

  • Stufe 4: Vollautomatisiertes Fahren

    Der Fahrer kann noch übernehmen, ist aber nicht mehr erforderlich, um das Auto zu steuern. Elektronische Systeme können alle Verkehrssituationen automatisch bewältigen.

  • Stufe 5: Fahrerloses Fahren

    Das Lenkrad entfällt, das Auto wird nur noch vom System gesteuert.

Es sind Fragen, die gruseln und offenbar faszinieren: 3,5 Millionen Menschen haben die Moral Maschine schon angeklickt und ihre Wahl getroffen. Bei einigen Dilemmata, so haben Dsouza und seine Kollegen herausgefunden, neigen alle Menschen zu einer bestimmten Lösung, bei anderen gibt es starke kulturelle Unterschiede. In China, Osteuropa und Russland etwa seien die Menschen vorrangig am Leben der Fahrzeuginsassen interessiert – im Westen eher am Wohl der größeren Zahl. „Je nach Kultur, Land und Weltregion“, sagt Dsouza, „entscheiden die Menschen extrem unterschiedlich.“

Anzeige

Vor einem Jahr prallte ein auf Autopilot gestellter Tesla an einer Kreuzung mit einem Sattelschlepper zusammen. Das Auto hatte die weiße Seite des Lkws vor dem hellen Himmel nicht erkannt und deswegen nicht gebremst. Der Fahrer starb. Der Unfall galt als Beleg für eine defizitäre Technik. Er zeigte aber auch, wie US-Konzerne die Entwicklung des selbstfahrenden Autos vorantreiben: in der Praxis, auf dem Wege laufender Verbesserungen. Jedenfalls nicht auf dem Wege ethischer Debatten.

Anzeige
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%