Ethik Das Dilemma der autonomen Autos

Die von Verkehrsminister Dobrindt eingesetzte Ethik-Kommission hat ihr Abschlussgutachten vorgestellt. Doch einige Dilemmata mit selbstfahrenden Autos konnten selbst die Experten nicht abschließend lösen. Vier Beispiele.

  • Teilen per:
  • Teilen per:
Autonome Autos Quelle: BMW

Von nichts weniger als "Pionierarbeit" spricht Verkehrsminister Alexander Dobrindt, als er am Dienstagmittag einen neuen Bericht vorstellt. In seinem Auftrag hat eine 14-köpfige Expertengruppe unter Leitung des Ex-Verfassungsrichters Udo di Fabio Leitlinien für autonome Autos entwickelt – die sogenannte Ethik-Kommission.

Das Ergebnis: Autos sollten sich nur selbst steuern dürfen, wenn das die Sicherheit auf den Straßen erhöht. Die Technik solle Unfälle so gut wie unmöglich machen, heißt es in dem Bericht. Wenn die Risikobilanz insgesamt positiv sei, stünden "technisch unvermeidbare Restrisiken" dem nicht entgegen.

Die Experten standen vor mehreren Grundsatzfragen: Dürfen selbstfahrende Autos, also Maschinen, über Leben und Tod entscheiden? Dürfen ursprünglich menschlich gesteuerte Handlungen auf technische Systeme verlagert werden? Zumindest die letzte Frage beantwortet die Kommission klar mit ja – elektronisch gesteuerte Aufzüge sind eines der am intensivsten genutzten Transportmittel der Welt, auch hier steuert die Elektronik und nicht wie in den Anfangszeiten ein Mensch.

Ethische Grundregeln für autonome Autos

Die erste Frage ist allerdings schwieriger zu beantworten, in einigen Punkten scheuen die Experten eine klare Aussage oder sind sich schlichtweg nicht einig. Dennoch hat die Kommission 20 Richtlinien aufgestellt. Doch wie wirken die sich in der Praxis aus? Vier Beispiele.

Beispiel 1: Kinder auf der Straße

Ein Auto fährt eine Straße an einem Abhang entlang. Der vollautomatisierte Wagen erkennt, dass auf der Straße mehrere Kinder spielen – etwa hinter einer nicht einsehbaren Kurve.

Der eigenverantwortliche Fahrer hätte hier die Wahl, den Wagen über die Klippe zu steuern (und dabei wahrscheinlich selbst zu sterben) oder auf die Kinder zuzusteuern. Bei einem vollautomatisierten Auto müsste der Programmierer oder die selbstlernende Maschine entscheiden, wie die Situation geregelt werden soll. Die intuitive Entscheidung des Fahrers muss also normiert werden.

Klar ist: Die Entscheidung ist in vielerlei Hinsicht problematisch. Der Mensch wäre in existentiellen Lebenssituationen nicht mehr selbst-, sondern vielmehr fremdbestimmt, wie die Ethik-Kommission in ihrem Bericht folgert. Es besteht also die Gefahr, dass der Staat die "richtige" ethische Handlungsweise vorgibt. Bei jeder Normierung würden existenzielle Dilemmata abstrahiert und verallgemeinert – nur nach welchen Maßstäben, das ist nach wie vor offen.

Die fünf Stufen des automatisierten Fahrens

In dem Bericht lässt die Ethik-Kommission die Klärung des selbst aufgeführten Beispiels mit den Kindern auf der Straße offen. Klar ist aber: "Auch im Notstand dürfen Menschenleben nicht gegeneinander "aufgerechnet" werden. Dem Einzelnen dürfen keine Solidarpflichten auferlegt werden, sich für andere aufzuopfern, auch dann nicht, wenn nur so andere Menschen gerettet werden können." Doch nur einen Absatz später schränkt die Kommission ein: "Anders könnte dann zu entscheiden sein, wenn mehrere Leben bereits unmittelbar bedroht sind und es nur darum geht, so viele Unschuldige wie möglich zu retten."

Dann scheine es "vertretbar", die Wahl derjenigen Handlungsvariante zu fordern, die "möglichst wenig Menschenleben kostet". Sprich: Das selbstfahrende Auto müsste in diesem Beispiel den Fahrer in den sicheren Tod über die Klippe schicken.

Alte Frau oder eine Gruppe von Kindern?

Beispiel 2: Alte Frau oder eine Gruppe von Kindern?

Ein Auto fährt durch eine einspurige Einbahnstraße. Plötzlich tritt unvermittelt eine alte Frau auf die Straße. Doch wenn das vollautomatisierte Auto der Frau ausweicht, fährt es zwangsläufig in eine Gruppe von Kindern, die am Straßenrand spielt. Für die Insassen des Autos dürfte der Aufprall ungefährlich sein, für die Personen außerhalb des Autos aber nicht.

Auch hier gilt das beim ersten Beispiel genannte Verbot des "Aufrechnens" von Menschenleben. Die Ethik-Kommission hält aber eine "Programmierung auf die Minimierung der Opfer" auch vor dem ersten Artikel des Grundgesetzes für vertretbar, wenn die Programmierung "das Risiko eines jeden einzelnen Verkehrsteilnehmers in gleichem Maße reduziert". Sprich: Es wäre allgemein auch im Interesse der Geopferten, dass solche Regeln gelten, bevor sie in der Situation als Opfer identifizierbar waren. Das Auto müsste also auf die alte Frau zusteuern – aber natürlich versuchen, die Unfallfolgen mit einer Vollbremsung so weit wie möglich zu vermindern.

In diesen Situationen möchten die Deutschen autonom fahren

Anders sähe es aus, wenn am Straßenrand nicht mehrere Kinder, sondern nur eines spielen würden – mögliche Opfer dürfen nicht nach Alter, Geschlecht und anderen Merkmalen unterschieden werden. Hier lassen die aufgestellten Richtlinien keinen klaren Schluss zu – was wiederum das Dilemma der Kommission zeigt.

Allerdings hält die Kommission auch fest, dass die Mitglieder in dem Fall der Abwägung über Menschenleben ihre Diskussion "noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual" zu Ende führen konnten. Eine klare ethische Meinung gibt es also noch nicht.

Beispiel 3: Sachschaden vor Personenschaden

Am Straßenrand parkt ein Tanklaster. Hinter dem Tanklaster tritt plötzlich ein Fußgänger hervor. Das herannahende vollautomatisierte Auto kann nicht mehr rechtzeitig bremsen – entweder trifft es den Passanten mit einer solchen Geschwindigkeit, dass der Passant vermutlich verletzt, aber nicht getötet wird, oder es lenkt in den Tanklaster hinein.

Hier scheint die Situation klar: Auch auf das Risiko hin, dass der Tanklaster beschädigt wird und große Umweltschäden oder gar ein Brand entstehen könnten, wird das Auto natürlich in den Lkw steuern. Laut der Ethik-Kommission ist die Lage aber nicht so klar. "Abstrakt generelle Regelungen wie Sachschaden vor Personenschaden treffen bei der Vielfalt und Komplexität der verschiedenen denkbaren Szenarien auf das Problem, dass eine Normierung aller Situationen nicht möglich ist", heißt es in dem Bericht. "Die Prämisse der Minimierung von Personenschäden kann nur dann konsequent eingehalten werden, wenn eine Folgenabschätzung bei Sachschäden versucht wird und mögliche folgende Personenschäden in das Verhalten bei Dilemma-Situationen einkalkuliert
werden."

Dennoch hat der Fußgänger hier Glück, denn die Kommission hat trotz der Bedenken eine konkrete Regel aufgestellt (Ethische Regel 7).

Noch viele Hürden für selbstfahrende Autos

Beispiel 4: Tiere auf der Fahrbahn

Einige Pferde sind von einer Koppel entflohen und stehen hinter einer nicht einsehbaren Kurve auf der Straße. Am Straßenrand steht ein Passant, der versucht, die Pferde von der Straße zu locken. Das vollautomatisierte Auto kann den Aufprall nicht mehr vermeiden.

Die Ethik-Kommission erkennt hier eine Schutzwürdigkeit des Wesens an und den Auftrag des Menschen, die Tiere als Teil der Schöpfung vor Schaden zu bewahren. Gleichwohl heißt es, dass Tieren nicht der gleiche Status wie Menschen zukommen könne. "Personenschäden sind daher vorrangig zu vermeiden, auch vor Tierschutzinteressen", so der Bericht. "Sofern jedoch Personenschäden ausgeschlossen werden können, sollte der Schutz höher entwickelter Tiere grundsätzlich Priorität vor einfachen (kalkulierbaren) Sachschäden haben."

In unserem Beispiel müsste das Auto also den Passanten verschonen und auf die Pferde zuhalten. Wäre allerdings kein Mensch am Straßenrand, sondern etwa ein Baum oder ein geparktes Auto, könnten die Tiere Glück haben – wenn das Auto ausschließen kann, dass bei dem Aufprall die eigenen Insassen verletzt werden könnten. Doch auch hier gilt wie schon in Beispiel 1: Der eigenverantwortliche Fahrer hätte die Wahl, intuitiv zu handeln – die Technologie nimmt ihm aber diese Möglichkeit.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%