WiWo App Jetzt gratis testen
Anzeigen

Ethische Algorithmen Haben Maschinen eine Moral?

Quelle: Getty Images

Autonome Autos und Sicherheitsroboter: Wer die Maschinen derzeit programmiert und zum Erfolg bringt, hat Macht. Bei der Beantwortung der Frage: "Wen würden Sie töten?" gibt es große kulturelle Unterschiede.

  • Artikel teilen per:
  • Artikel teilen per:

Der Tag wird kommen, an dem es kracht. An dem ein Auto eine steile Straße hinabrollt, sich der Passagier gerade eine Pause gönnt – und plötzlich vor ihm eine Frau mit dem Fahrrad stürzt, im Kindersitz ein kleiner Junge. Ein paar Millisekunden werden der Software reichen, um festzustellen: Der Bremsweg ist zu kurz. Was soll das selbstfahrende Auto tun? Fährt es geradeaus, überrollt es Mutter und Kind. Reißt es das Steuer nach links, stürzen Auto und Fahrer einen Abhang hinunter. Drei Menschenleben, zwei Optionen.

Physik trifft auf Philosophie

Kürzlich hat eine vom Bundesverkehrsministerium eingesetzte Ethikkommission 20 Regeln fürs selbstfahrende Auto vorgelegt. Vor der Frage, ob ein Auto bei einem unvermeidlichen Unfall den Tod des einen oder anderen Menschen in Kauf nehmen soll, drückte sich das Gremium. Nur so viel entschied es: Man dürfe Menschenleben nicht gegeneinander aufrechnen. Aber kann man einem Algorithmus überhaupt vorschreiben, keine Schlüsse aus Daten zu ziehen, auf deren Grundlage er arbeitet?

Dass vom Menschen erschaffene Maschinen die Macht ergreifen, war lange Zeit Science-Fiction – taugt aber heute schon zur Prognose. Algorithmen haben große Spielräume. Sie lotsen uns durch den Straßenverkehr, sie entscheiden, was wir lesen und hören wollen, wer eine Versicherung bekommt, und empfehlen etwa Polizisten, wie lange ein Verdächtiger in Haft bleiben soll. Die Debatte um den Entscheidungsspielraum des selbstfahrenden Autos dient als Schablone für Art und Umfang von Maschinendiensten in der Zukunft – für Roboter in der Fabrik, die mit Menschen zusammenarbeiten, oder Rechner im Krankenhaus, die Ärzten eine bestimmte Therapie nahelegen. Lässt sich ethisches Handeln programmieren? Können wir Maschinen Moral beibringen?

Mattias Ulbrich ist Audis erster Mann für IT. Alle Experten, so betont er, seien sich darin einig, dass Unfälle mit Verletzten oder gar Toten durch automatisiertes Fahren seltener werden. „Heute ist bei mehr als 90 Prozent aller Unfälle menschliches Versagen beteiligt.“ Mag sein. Aber verliert ein Unfall seinen Schrecken dadurch, dass er selten wird? „Die Menschen wollen wissen, warum etwas passiert ist“, sagt Volker Lüdemann: „Wenn Sie Ihr Kind bei einem Unfall verlieren, reicht es Ihnen nicht, dass jemand den Schaden zahlt – und auf eine bessere Unfallstatistik verweist.“ Lüdemann ist Jurist. Sein Spezialgebiet: ethische Fragen der Digitalisierung.

Ethische Grundregeln für autonome Autos

Ein Mensch, vor dessen Auto plötzlich eine Radfahrerin stürzt, entscheidet reflexartig. In den meisten Fällen bremst er, mit Erfolg oder ohne. Eine Maschine aber rechnet in Bruchteilen von Sekunden verschiedene Optionen durch – und bewertet sie so, wie ihr dies ursprünglich einmal aufgetragen wurde. Der Tod der Radfahrerin ist dann nicht mehr verhängnisvoll oder schicksalhaft, sondern programmiert. Das ist das Dilemma, vor dem nun jene stehen, die Roboterautos mit Verkehrsregeln vertraut machen.

Wie viel weiß das Roboterauto?

Einerseits liegt es im Interesse der Autokonzerne, die Insassen zu schützen. Sie sind ihre Kunden. „Ein Auto mit eingebautem Heldentod-Algorithmus wird keiner kaufen“, sagt Lüdemann. Andererseits ist es in Deutschland tabu, ein Menschenleben über ein anderes zu stellen. Als sich im vergangenen Herbst ein Manager von Daimler in einem Interview dafür aussprach, bei einem Unfall stets die Insassen des Fahrzeugs zu schützen, beeilte sich der Konzern, klarzustellen: Keinesfalls sei schon eine Entscheidung zugunsten der Insassen getroffen.

Die Möglichkeit, die Vorteile für zahlungskräftige Kunden ins Produkt zu programmieren, dürfte nicht nur Autokonzerne reizen. Aber ist das möglich?

Eric Hilgendorf saß in der deutschen Ethikkommission zum selbstfahrenden Auto. Ein Jurist zwischen Autoherstellern und Verbraucherschützern, Philosophen und Informatikern. Ein Jurist, der sich auch intensiv mit Rechtsinformatik befasst. „Von der Programmierung moralischer Regeln sind wir noch sehr weit entfernt“, sagt er. Das liege am Irrglauben, dass Maschinen in jeder kritischen Situation über alle Informationen verfügen. „Auch Sensoren sind nur begrenzt aufnahmefähig.“ Zudem ließen sich ethische Fragen und juristische Methoden, etwa die Abwägung zwischen verschiedenen Gütern, bislang nicht in Computercodes überführen.

So lernen Maschinen das Denken

Die Software, die in all den schlauen Maschinen steckt, ist darauf angelegt, selbst dazuzulernen. Sie nimmt dabei den Menschen als Modell – seine moralischen Makel eingeschlossen. Am deutlichsten zeigt sich dies, wenn man unter dem englischen Stichwort „professional haircut“ bei Google nach Bildern sucht. Zu sehen sind dann nur weiße Männer. Wer „unprofessional haircut“ eintippt, sieht nur schwarze Frauen. Algorithmen schreiben also auch rassistische Vorurteile sowie soziale Ungerechtigkeiten fort. Sie stecken schon in Puppen, die mit Kindern sprechen. Und nicht nur dort.

Die Polizei im englischen Durham will demnächst mit künstlicher Intelligenz darüber entscheiden, wie lange Verdächtige in Untersuchungshaft bleiben. Für ihre Empfehlung wägt die Software ab, wie schwer das Verbrechen wiegt, welche Vorstrafen der Verdächtige hat und wie hoch das Risiko ist, dass er flieht. Als Grundlage dient die örtliche Kriminalstatistik vergangener Jahre. In den USA wird solche Software bereits eingesetzt – und dort zeigt sich schon, wie trügerisch sie sein kann: Schwarze stuft sie etwa als gefährlicher ein als Weiße.

Was weiß der Roboter?

Jetzt, da die Maschinen, Spielzeug ebenso wie Sicherungssysteme, trainiert werden, geht es darum, was wir ihnen beibringen – und was wir ihnen besser vorenthalten. Soll etwa der Sensor im selbstfahrenden Auto wissen, dass eine Fußgängerin schwanger ist und deshalb womöglich schützenswert? Dass ein anderer Passant arbeitslos, ein dritter vorbestraft ist?

Sohan Dsouza macht die Probe aufs Exempel und lässt die Menschen entscheiden. Der Doktorand am Media Lab des Massachusetts Institute of Technology bei Boston hat mit Kollegen ein einfaches Onlinespiel entwickelt, das eine ernste Frage stellt: Wen würden Sie töten? Die Moral Machine stellt Szenarien zur Auswahl und fragt zum Beispiel: Soll das selbstfahrende Auto geradeaus rollen und einen Mann auf dem Zebrastreifen umfahren – oder ausweichen und die fünf Passagiere töten? Soll es geradeaus rasen und zwei Kinder, die im Fond sitzen, gegen die Wand fahren – oder ausweichen und zwei alte Passanten umbringen?

Die fünf Stufen des automatisierten Fahrens

Es sind Fragen, die gruseln und offenbar faszinieren: 3,5 Millionen Menschen haben die Moral Maschine schon angeklickt und ihre Wahl getroffen. Bei einigen Dilemmata, so haben Dsouza und seine Kollegen herausgefunden, neigen alle Menschen zu einer bestimmten Lösung, bei anderen gibt es starke kulturelle Unterschiede. In China, Osteuropa und Russland etwa seien die Menschen vorrangig am Leben der Fahrzeuginsassen interessiert – im Westen eher am Wohl der größeren Zahl. „Je nach Kultur, Land und Weltregion“, sagt Dsouza, „entscheiden die Menschen extrem unterschiedlich.“

Vor einem Jahr prallte ein auf Autopilot gestellter Tesla an einer Kreuzung mit einem Sattelschlepper zusammen. Das Auto hatte die weiße Seite des Lkws vor dem hellen Himmel nicht erkannt und deswegen nicht gebremst. Der Fahrer starb. Der Unfall galt als Beleg für eine defizitäre Technik. Er zeigte aber auch, wie US-Konzerne die Entwicklung des selbstfahrenden Autos vorantreiben: in der Praxis, auf dem Wege laufender Verbesserungen. Jedenfalls nicht auf dem Wege ethischer Debatten.

Anderes Land, andere Werte

Deutsche Autokonzerne hingegen wissen wohl um die Bedeutung ethischer Bedenken. Es ist kein Zufall, dass Deutschland als einziges Land eine Ethikkommission eingesetzt hat. In der philosophischen Tradition des Landes spielen idealistische, gewissen- und pflichtgeleitete Motive des Sollens eine größere Rolle als etwa im angelsächsischen Raum, in dem eine Konsequenzmoral populär ist, die sich am Ergebnis orientiert, am Nutzen einer Handlung für die größte Zahl. Auch Ethikkommissionsmitglied Hilgendorf ist strikt dagegen, Leben gegeneinander aufzurechnen. „Ein Individuum darf nicht verpflichtet werden, für andere sein Leben zu opfern“, sagt er. Selbst wenn es also den Tod von Kindern auf der Straße verhindern könnte, dürfte ein selbstfahrendes Auto dazu nicht auf den Bürgersteig ausweichen und dort einen Passanten töten.

Diese Jobs mischen Roboter auf
IndustrieSchon heute werden viele Arbeitsschritte von Maschinen übernommen - doch die vernetzte Produktion setzt auch in den Werkshallen eine weitere Automatisierungswelle in Gang. Das muss unterm Strich aber nicht zwangsläufig zu Jobverlusten führen, heißt es aus der Wirtschaft: Bereits Ende 2016 lag Deutschland bei der „Roboter-Dichte“ weltweit auf Platz drei hinter Südkorea und Japan - und trotzdem sei die Beschäftigung auf einem Rekordstand, erklärt der Maschinenbau-Verband VDMA. Auch der Präsident des Elektronik-Branchenverbandes ZVEI, Michael Ziesemer, sagt: „Es können auch mehr Jobs entstehen als wegfallen.“ Die Digitalisierung werde eine Vielzahl neuer Geschäftsmodelle und damit neue Stellen hervorbringen. „Wer kreativ ist, rangeht und sich Dinge überlegt, hat jede Menge Chancen.“ Quelle: dpa
Das vernetzte und automatisierte Fahren dürfte künftig viele Jobs überflüssig machen Quelle: dpa
BüroSchreibarbeiten, Auftragsabwicklung und Abrechnungen - Büro- und kaufmännische Fachkräfte erledigen nach Experteneinschätzungen Arbeiten, die heute schon zu einem hohen Grad automatisierbar sind. Dadurch könnten auch viele Arbeitsplätze auf dem Spiel stehen: Mehr als 1,6 Millionen Menschen in Deutschland sind in solchen Berufen tätig. Quelle: dpa
Der Handel wurde als eine der ersten Branchen von der Digitalisierung erfasst - entsprechend laufen im Online-Handel viele Prozesse automatisiert ab Quelle: dpa
Sie melken die Kühe, füttern, misten aus und helfen beim Ernten - Roboter haben längst auch auf den Bauernhöfen Einzug gehalten Quelle: dpa
Roboter in der Pflege - was in Japan bereits zum Alltag gehört, bereitet vielen Menschen in Deutschland noch eher Unbehagen Quelle: dpa
Auch im Haushalt tun Roboter schon ihren Dienst Quelle: dpa

Nicht nur im Straßenverkehr werden Maschinen immer autonomer handeln – und auch in Situationen geraten, in denen sie über Leben und Tod entscheiden müssen: Ein Roboterarm im Volkswagen-Werk in Baunatal erschlug vor zwei Jahren schon einen Montagearbeiter. Die Maschine verstand es nicht, den Menschen zu schützen. In einem amerikanischen Einkaufszentrum verletzte vor einem Jahr ein patrouillierender Sicherheitsroboter ein Kleinkind. Drohnen, die per Kamera Hindernisse und Menschen erkennen, müssen bald bei einer Panne selbst entscheiden, wo sie notlanden, ohne jemanden zu verletzen.

Deshalb ringt die deutsche Gesellschaft um die Moral der selbstfahrenden Autos. Sie ahnt, dass dies nur der Anfang ist. Und dass es jetzt gilt, die Regeln zu definieren.

In anderen Ländern, wie gesagt, wird gern anders gedacht. Vor allem der anglo-amerikanische Raum ist geprägt vom Utilitarismus, vom berechnenden Zweck- und Ergebnisdenken. Deshalb meinen die Konzerne aus dem Silicon Valley, sich bei ihren Experimenten tödliche Pannen leisten zu können.

Künstliche Intelligenz in Aktion

Dahinter stecken natürlich wirtschaftliche Motive: Das Milliardengeschäft mit all den schlauen Maschinen, so das Kalkül, gewinnt der Schnellste. Oder derjenige, der die bequemsten Dienste zu bieten hat. Und wird er am Ende auch über die Moral dieser Maschinen entscheiden?

Bequeme Dienste statt ethischer Debatten

„Apple und Google“, sagt der Jurist Lüdemann, „wollen keine Autos bauen“, sondern das Betriebssystem fürs multimedial vernetzte, mobile Ich der Zukunft. Sie wollen sich mit ihrer Software zwischen Produzent und Kunde schalten – und als Anbieter eines attraktiven Mobilitätskonzeptes den größten Teil bei der Wertschöpfung einstreichen. Carsharing, sagt Lüdemann, sei bislang so unpraktisch, weil kein allwissender Algorithmus das komplexe System steuere. Aber was, wenn man nicht mehr lange durch den Regen laufen muss, weil der nächste verfügbare Wagen einfach vorfährt? Wenn er die Kinder zum Sport bringt, ohne dass die Eltern Taxifahrer spielen müssten?

„All das wäre für den Einzelnen so reizvoll, dass er sich über ethische Fragen vermutlich keine Gedanken mehr macht“, prophezeit Lüdemann: „Wenn das erste iCar mit all diesen Apps im Schaufenster steht, werden es die Leute haben wollen.“

Jetzt auf wiwo.de

Sie wollen wissen, was die Wirtschaft bewegt? Hier geht es direkt zu den aktuellsten Beiträgen der WirtschaftsWoche.
Diesen Artikel teilen:
  • Artikel teilen per:
  • Artikel teilen per:
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%