Beispiel 2: Alte Frau oder eine Gruppe von Kindern?
Ein Auto fährt durch eine einspurige Einbahnstraße. Plötzlich tritt unvermittelt eine alte Frau auf die Straße. Doch wenn das vollautomatisierte Auto der Frau ausweicht, fährt es zwangsläufig in eine Gruppe von Kindern, die am Straßenrand spielt. Für die Insassen des Autos dürfte der Aufprall ungefährlich sein, für die Personen außerhalb des Autos aber nicht.
Auch hier gilt das beim ersten Beispiel genannte Verbot des "Aufrechnens" von Menschenleben. Die Ethik-Kommission hält aber eine "Programmierung auf die Minimierung der Opfer" auch vor dem ersten Artikel des Grundgesetzes für vertretbar, wenn die Programmierung "das Risiko eines jeden einzelnen Verkehrsteilnehmers in gleichem Maße reduziert". Sprich: Es wäre allgemein auch im Interesse der Geopferten, dass solche Regeln gelten, bevor sie in der Situation als Opfer identifizierbar waren. Das Auto müsste also auf die alte Frau zusteuern – aber natürlich versuchen, die Unfallfolgen mit einer Vollbremsung so weit wie möglich zu vermindern.
In diesen Situationen möchten die Deutschen autonom fahren
63 Prozent aller Deutschen möchten die Kontrolle beim Einparken abgeben. Das ergab eine repräsentative Umfrage des Digitalverbands Bitkom aus dem Jahr 2015.
45 Prozent möchten im Stau autonom fahren.
Auf der Autobahn möchten 15 Prozent der Befragten die Kontrolle abgeben.
Neun Prozent möchten im Stadtverkehr autonom unterwegs sein.
Sieben Prozent wollen auf allen Straßen die Kontrolle übers Fahren abgeben.
27 Prozent möchten die Kontrolle gar nicht abgeben.
Anders sähe es aus, wenn am Straßenrand nicht mehrere Kinder, sondern nur eines spielen würden – mögliche Opfer dürfen nicht nach Alter, Geschlecht und anderen Merkmalen unterschieden werden. Hier lassen die aufgestellten Richtlinien keinen klaren Schluss zu – was wiederum das Dilemma der Kommission zeigt.
Allerdings hält die Kommission auch fest, dass die Mitglieder in dem Fall der Abwägung über Menschenleben ihre Diskussion "noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual" zu Ende führen konnten. Eine klare ethische Meinung gibt es also noch nicht.
Beispiel 3: Sachschaden vor Personenschaden
Am Straßenrand parkt ein Tanklaster. Hinter dem Tanklaster tritt plötzlich ein Fußgänger hervor. Das herannahende vollautomatisierte Auto kann nicht mehr rechtzeitig bremsen – entweder trifft es den Passanten mit einer solchen Geschwindigkeit, dass der Passant vermutlich verletzt, aber nicht getötet wird, oder es lenkt in den Tanklaster hinein.
Hier scheint die Situation klar: Auch auf das Risiko hin, dass der Tanklaster beschädigt wird und große Umweltschäden oder gar ein Brand entstehen könnten, wird das Auto natürlich in den Lkw steuern. Laut der Ethik-Kommission ist die Lage aber nicht so klar. "Abstrakt generelle Regelungen wie Sachschaden vor Personenschaden treffen bei der Vielfalt und Komplexität der verschiedenen denkbaren Szenarien auf das Problem, dass eine Normierung aller Situationen nicht möglich ist", heißt es in dem Bericht. "Die Prämisse der Minimierung von Personenschäden kann nur dann konsequent eingehalten werden, wenn eine Folgenabschätzung bei Sachschäden versucht wird und mögliche folgende Personenschäden in das Verhalten bei Dilemma-Situationen einkalkuliert
werden."
Dennoch hat der Fußgänger hier Glück, denn die Kommission hat trotz der Bedenken eine konkrete Regel aufgestellt (Ethische Regel 7).
Noch viele Hürden für selbstfahrende Autos
Autopiloten sind in Flugzeugen Standard. Auch in Schiffen übernimmt zumindest außerhalb der Häfen oft der Computer das Ruder. Am Ende geht es auch beim autonomen Fahren um einen Autopiloten, der das Fahrzeug steuert. Doch der Autoverkehr ist komplex. Auf der Autobahn können die Prototypen der Industrie bereits ohne größere Probleme ohne Eingriffe des Fahrers unterwegs sein. Im Stadtverkehr wird es schon schwieriger. Halbautomatische Funktionen sind allerdings inzwischen Alltag. Ob Tempomaten, Einparkhilfen, Stauassistenten oder Abstandsregler - viele Funktionen entlasten den Fahrer bereits. Auch etwa Mähdrescher können längst eigenständig über das Feld fahren.
Eins der wichtigsten Argumente ist die Sicherheit. Die meisten Unfälle gehen auf Fahrfehler zurück. Weit oben in der Statistik: zu hohe Geschwindigkeit, zu geringer Abstand oder Abbiegefehler. Automatisch gesteuerte Autos würden solche Fehler minimieren. Denn Risikofreude, Spaß an der Geschwindigkeit und Selbstüberschätzung kennt ein Computer nicht. Er bremst, wenn der Abstand zu gering wird und nimmt nicht aus Unachtsamkeit anderen die Vorfahrt.
Die Entwicklung ist recht weit fortgeschritten. BMW etwa testet seit Jahren automatisch fahrende Autos, auch auf deutschen Autobahnen. Die Fahrzeuge können auch eigenständig überholen. Solche Tests müssen sich die Hersteller aber von Behörden genehmigen lassen. Audi ließ jüngst zur US-Technikmesse CES einen Wagen „autonom“ rund 900 Kilometer aus dem Silicon Valley nach Las Vegas fahren. Auch Daimler präsentierte auf der CES seine Vision für ein selbstfahrendes Auto der Zukunft. Der silberne Mercedes-Prototyp fuhr autonom auf die Bühne nach einer Tour durch die Wüste und die Hotel-Meile der Glücksspiel-Stadt. Zumindest für die Autobahn können sich manche Hersteller pilotiertes Fahren bereits in fünf bis sieben Jahren vorstellen.
Hier beginnen die Schwierigkeiten jenseits der Technik. Die erste Hürde ist das „Wiener Übereinkommen für den Straßenverkehr“ von 1968, das die Basis für die meisten Verkehrsregelungen ist. Darin gibt es zwar Hinweise zu Zugtieren, aber von selbstfahrenden Autos ist nicht die Rede. Dafür aber davon, dass jedes Auto einen Fahrer braucht, der am Ende verantwortlich ist. Dass Autofahrer am Ende Verantwortung und Kontrolle völlig abgeben werden, gilt eher als unwahrscheinlich. Noch fehlen dafür aber Regeln und Gesetze. Bei den bisher fahrenden Prototypen auf normalen Strecken müssen in Deutschland die Fahrer darauf geschult sein.
Europas größter Versicherer, die Allianz, würde auch selbstfahrende Autos versichern. Allerdings würde sich die Risikoeinschätzung ändern, denn das Risiko verlagere sich vom menschlichen Fehler des Fahrers zum Entwickler der Autopiloten. Allerdings glauben die Versicherer nicht daran, dass es vollständig selbstfahrende Auto geben wird. Ein Fahrer werde auch künftig einen Führerschein brauchen, und das Gefährt im Notfall oder in Situationen wo es nötig ist, kontrollieren zu können.
Sicherlich auch, um Kunden mit immer ausgereifteren Extras zu locken. Doch daneben spielt auch die mögliche Konkurrenz durch andere Spieler eine Rolle. So arbeitet etwa auch der Internetkonzern Google seit einigen Jahren an selbstfahrenden Autos.
Beispiel 4: Tiere auf der Fahrbahn
Einige Pferde sind von einer Koppel entflohen und stehen hinter einer nicht einsehbaren Kurve auf der Straße. Am Straßenrand steht ein Passant, der versucht, die Pferde von der Straße zu locken. Das vollautomatisierte Auto kann den Aufprall nicht mehr vermeiden.
Die Ethik-Kommission erkennt hier eine Schutzwürdigkeit des Wesens an und den Auftrag des Menschen, die Tiere als Teil der Schöpfung vor Schaden zu bewahren. Gleichwohl heißt es, dass Tieren nicht der gleiche Status wie Menschen zukommen könne. "Personenschäden sind daher vorrangig zu vermeiden, auch vor Tierschutzinteressen", so der Bericht. "Sofern jedoch Personenschäden ausgeschlossen werden können, sollte der Schutz höher entwickelter Tiere grundsätzlich Priorität vor einfachen (kalkulierbaren) Sachschäden haben."
In unserem Beispiel müsste das Auto also den Passanten verschonen und auf die Pferde zuhalten. Wäre allerdings kein Mensch am Straßenrand, sondern etwa ein Baum oder ein geparktes Auto, könnten die Tiere Glück haben – wenn das Auto ausschließen kann, dass bei dem Aufprall die eigenen Insassen verletzt werden könnten. Doch auch hier gilt wie schon in Beispiel 1: Der eigenverantwortliche Fahrer hätte die Wahl, intuitiv zu handeln – die Technologie nimmt ihm aber diese Möglichkeit.