Von nichts weniger als "Pionierarbeit" spricht Verkehrsminister Alexander Dobrindt, als er am Dienstagmittag einen neuen Bericht vorstellt. In seinem Auftrag hat eine 14-köpfige Expertengruppe unter Leitung des Ex-Verfassungsrichters Udo di Fabio Leitlinien für autonome Autos entwickelt – die sogenannte Ethik-Kommission.
Das Ergebnis: Autos sollten sich nur selbst steuern dürfen, wenn das die Sicherheit auf den Straßen erhöht. Die Technik solle Unfälle so gut wie unmöglich machen, heißt es in dem Bericht. Wenn die Risikobilanz insgesamt positiv sei, stünden "technisch unvermeidbare Restrisiken" dem nicht entgegen.
Die Experten standen vor mehreren Grundsatzfragen: Dürfen selbstfahrende Autos, also Maschinen, über Leben und Tod entscheiden? Dürfen ursprünglich menschlich gesteuerte Handlungen auf technische Systeme verlagert werden? Zumindest die letzte Frage beantwortet die Kommission klar mit ja – elektronisch gesteuerte Aufzüge sind eines der am intensivsten genutzten Transportmittel der Welt, auch hier steuert die Elektronik und nicht wie in den Anfangszeiten ein Mensch.
Ethische Grundregeln für autonome Autos
Teil- und vollautomatisierte Verkehrssysteme dienen zuerst der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr. Daneben geht es um die Steigerung von Mobilitätschancen und die Ermöglichung weiterer Vorteile. Die technische Entwicklung gehorcht dem Prinzip der Privatautonomie im Sinne eigenverantwortlicher Handlungsfreiheit.
Quelle: Bundesverkehrsministerium
Der Schutz von Menschen hat Vorrang vor allen anderen Nützlichkeitserwägungen. Ziel ist die Verringerung von Schäden bis hin zur vollständigen Vermeidung. Die Zulassung von automatisierten Systemen ist nur vertretbar, wenn sie im Vergleich zu menschlichen
Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht.
Die Gewährleistungsverantwortung für die Einführung und Zulassung automatisierter und vernetzter Systeme im öffentlichen Verkehrsraum obliegt der öffentlichen Hand. Fahrsysteme bedürfen deshalb der behördlichen Zulassung und Kontrolle. Die Vermeidung von Unfällen ist Leitbild, wobei technisch unvermeidbare Restrisiken einer Einführung des automatisierten Fahrens bei Vorliegen einer grundsätzlich positiven Risikobilanz nicht entgegenstehen.
Die eigenverantwortliche Entscheidung des Menschen ist Ausdruck einer Gesellschaft, in der der einzelne Mensch mit seinem Entfaltungsanspruch und seiner Schutzbedürftigkeit im Zentrum steht. Jede staatliche und politische Ordnungsentscheidung dient deshalb der freien Entfaltung und dem Schutz des Menschen. In einer freien Gesellschaft erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.
Die automatisierte und vernetzte Technik sollte Unfälle so gut wie praktisch möglich vermeiden. Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der „Entscheidung“ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen. Dabei sollte das gesamte Spektrum technischer Möglichkeiten – etwa von der Einschränkung des Anwendungsbereichs auf kontrollierbare Verkehrsumgebungen, Fahrzeugsensorik und Bremsleistungen, Signale für gefährdete Personen bis hin zu einer Gefahrenprävention mittels einer „intelligenten“ Straßen-Infrastruktur – genutzt und kontinuierlich weiterentwickelt werden. Die erhebliche Steigerung der Verkehrssicherheit ist Entwicklungs- und Regulierungsziel, und zwar bereits in der Auslegung und Programmierung der Fahrzeuge zu defensivem und vorausschauendem, schwächere Verkehrsteilnehmer („Vulnerable Road Users“) schonendem Fahren.
Die Einführung höherer automatisierter Fahrsysteme insbesondere mit der Möglichkeit automatisierter Kollisionsvermeidung kann gesellschaftlich und ethisch geboten sein, wenn damit vorhandene Potentiale der Schadensminderung genutzt werden können. Umgekehrt ist eine gesetzlich auferlegte Pflicht zur Nutzung vollautomatisierter Verkehrssysteme oder die Herbeiführung einer praktischen Unentrinnbarkeit ethisch bedenklich, wenn damit die Unterwerfung unter technische Imperative verbunden ist (Verbot der Degradierung des Subjekts zum bloßen Netzwerkelement).
In Gefahrensituationen, die sich bei aller technischen Vorsorge als unvermeidbar erweisen, besitzt der Schutz menschlichen Lebens in einer Rechtsgüterabwägung höchste Priorität. Die Programmierung ist deshalb im Rahmen des technisch Machbaren so anzulegen, im Konflikt Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind.
Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben sind von der konkreten tatsächlichen Situation unter Einschluss „unberechenbarer“ Verhaltensweisen Betroffener abhängig. Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar. Technische Systeme müssen auf Unfallvermeidung ausgelegt werden, sind aber auf eine komplexe oder intuitive Unfallfolgenabschätzung nicht so normierbar, dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten. Ein menschlicher Fahrer würde sich zwar rechtswidrig verhalten, wenn er im Notstand einen Menschen tötet, um einen oder mehrere andere Menschen zu retten, aber er würde nicht notwendig schuldhaft handeln. Derartige in der Rückschau angestellte und besondere Umstände würdigende Urteile des Rechts lassen sich nicht ohne weiteres in abstrakt-generelle Ex-Ante-Beurteilungen und damit auch nicht in entsprechende Programmierungen umwandeln. Es wäre gerade deshalb wünschenswert, durch eine unabhängige öffentliche Einrichtung (etwa einer Bundesstelle für Unfalluntersuchung automatisierter Verkehrssysteme oder eines Bundesamtes für Sicherheit im automatisierten und vernetzten Verkehr) Erfahrungen systematisch zu verarbeiten.
Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.
Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen. Gesetzliche Haftungsregelungen und ihre Konkretisierung in der gerichtlichen Entscheidungspraxis müssen diesem Übergang hinreichend Rechnung tragen.
Für die Haftung für Schäden durch aktivierte automatisierte Fahrsysteme gelten die gleichen Grundsätze wie in der übrigen Produkthaftung. Daraus folgt, dass Hersteller oder Betreiber verpflichtet sind, ihre Systeme fortlaufend zu optimieren und auch bereits ausgelieferte Systeme zu beobachten und zu verbessern, wo dies technisch möglich und zumutbar ist.
Die Öffentlichkeit hat einen Anspruch auf eine hinreichend differenzierte Aufklärung über neue Technologien und ihren Einsatz. Zur konkreten Umsetzung der hier entwickelten Grundsätze sollten in möglichst transparenter Form Leitlinien für den Einsatz und die
Programmierung von automatisierten Fahrzeugen abgeleitet und in der Öffentlichkeit kommuniziert und von einer fachlich geeigneten, unabhängigen Stelle geprüft werden.
Ob in Zukunft eine dem Bahn- und Luftverkehr entsprechende vollständige Vernetzung und zentrale Steuerung sämtlicher Kraftfahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur möglich und sinnvoll sein wird, lässt sich heute nicht abschätzen. Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn und soweit sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszuschließen vermag.
Automatisiertes Fahren ist nur in dem Maße vertretbar, in dem denkbare Angriffe, insbesondere Manipulationen des IT-Systems oder auch immanente Systemschwächen nicht zu solchen Schäden führen, die das Vertrauen in den Straßenverkehr nachhaltig erschüttern.
Erlaubte Geschäftsmodelle, die sich die durch automatisiertes und vernetztes Fahren entstehenden, für die Fahrzeugsteuerung erheblichen oder unerheblichen Daten zunutze machen, finden ihre Grenze in der Autonomie und Datenhoheit der Verkehrsteilnehmer. Fahrzeughalter oder Fahrzeugnutzer entscheiden grundsätzlich über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten. Die Freiwilligkeit solcher Datenpreisgabe setzt das Bestehen ernsthafter Alternativen und Praktikabilität voraus. Einer normativen
Kraft des Faktischen, wie sie etwa beim Datenzugriff durch die Betreiber von Suchmaschinen oder sozialen Netzwerken vorherrscht, sollte frühzeitig entgegengewirkt werden
Es muss klar unterscheidbar sein, ob ein fahrerloses System genutzt wird oder ein Fahrer mit der Möglichkeit des „Overrulings“ Verantwortung behält. Bei nicht fahrerlosen Systemen muss die Mensch/Maschine-Schnittstelle so ausgelegt werden, dass zu jedem Zeitpunkt klar geregelt und erkennbar ist, welche Zuständigkeiten auf welcher Seite liegen, insbesondere auf welcher Seite die Kontrolle liegt. Die Verteilung der Zuständigkeiten (und damit der Verantwortung) zum Beispiel im Hinblick auf Zeitpunkt und Zugriffsregelungen sollte dokumentiert und gespeichert werden. Das gilt vor allem für Übergabevorgänge zwischen Mensch und Technik. Eine internationale Standardisierung der Übergabevorgänge und der Dokumentation (Protokollierung) ist anzustreben, um angesichts der grenzüberschreitenden Verbreitung automobiler und digitaler Technologien die Kompatibilität der Protokoll- oder Dokumentationspflichten zu gewährleisten.
Software und Technik hochautomatisierter Fahrzeuge müssen so ausgelegt werden, dass die Notwendigkeit einer abrupten Übergabe der Kontrolle an den Fahrer („Notstand“) praktisch ausgeschlossen ist. Um eine effiziente, zuverlässige und sichere Kommunikation zwischen Mensch und Maschine zu ermöglichen und Überforderung zu vermeiden, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt erhöhte Anpassungsleistungen dem Menschen abverlangt werden.
Lernende und im Fahrzeugbetrieb selbstlernende Systeme sowie ihre Verbindung zu zentralen Szenarien-Datenbanken können ethisch erlaubt sein, wenn und soweit sie Sicherheitsgewinne erzielen. Selbstlernende Systeme dürfen nur dann eingesetzt werden, wenn sie die Sicherheitsanforderungen an fahrzeugsteuerungsrelevante Funktionen erfüllen und die hier aufgestellten Regeln nicht aushebeln. Es erscheint sinnvoll, relevante Szenarien an einen zentralen Szenarien-Katalog einer neutralen Instanz zu übergeben, um entsprechende allgemeingültige Vorgaben, einschließlich etwaiger Abnahmetests zu erstellen.
In Notsituationen muss das Fahrzeug autonom, d.h. ohne menschliche Unterstützung, in einen „sicheren Zustand“ gelangen. Eine Vereinheitlichung insbesondere der Definition des sicheren Zustandes oder auch der Übergaberoutinen ist wünschenswert.
Die sachgerechte Nutzung automatisierter Systeme sollte bereits Teil der allgemeinen digitalen Bildung sein. Der sachgerechte Umgang mit automatisierten Fahrsystemen sollte bei der Fahrausbildung in geeigneter Weise vermittelt und geprüft werden.
Die erste Frage ist allerdings schwieriger zu beantworten, in einigen Punkten scheuen die Experten eine klare Aussage oder sind sich schlichtweg nicht einig. Dennoch hat die Kommission 20 Richtlinien aufgestellt. Doch wie wirken die sich in der Praxis aus? Vier Beispiele.
Beispiel 1: Kinder auf der Straße
Ein Auto fährt eine Straße an einem Abhang entlang. Der vollautomatisierte Wagen erkennt, dass auf der Straße mehrere Kinder spielen – etwa hinter einer nicht einsehbaren Kurve.
Der eigenverantwortliche Fahrer hätte hier die Wahl, den Wagen über die Klippe zu steuern (und dabei wahrscheinlich selbst zu sterben) oder auf die Kinder zuzusteuern. Bei einem vollautomatisierten Auto müsste der Programmierer oder die selbstlernende Maschine entscheiden, wie die Situation geregelt werden soll. Die intuitive Entscheidung des Fahrers muss also normiert werden.
Klar ist: Die Entscheidung ist in vielerlei Hinsicht problematisch. Der Mensch wäre in existentiellen Lebenssituationen nicht mehr selbst-, sondern vielmehr fremdbestimmt, wie die Ethik-Kommission in ihrem Bericht folgert. Es besteht also die Gefahr, dass der Staat die "richtige" ethische Handlungsweise vorgibt. Bei jeder Normierung würden existenzielle Dilemmata abstrahiert und verallgemeinert – nur nach welchen Maßstäben, das ist nach wie vor offen.
Die fünf Stufen des automatisierten Fahrens
Der Fahrer lenkt, bremst und beschleunigt selbständig. Einfache Systeme wie Abstandshalter unterstützen ihn.
Das elektronische System übernimmt bestimmte Funktionen wie etwa das automatische Einparken oder das Spurhalten. Der Fahrer bleibt aber weiter in der Verantwortung, die Hände bleiben am Lenkrad.
Das Fahrzeug fährt weitgehend autonom, der Fahrer muss nicht mehr alles dauerhaft überwachen. Er darf die Hände vom Lenkrad nehmen, muss aber in der Lage sein, nach Vorwarnung die Kontrolle wieder zu übernehmen.
Der Fahrer kann noch übernehmen, ist aber nicht mehr erforderlich, um das Auto zu steuern. Elektronische Systeme können alle Verkehrssituationen automatisch bewältigen.
Das Lenkrad entfällt, das Auto wird nur noch vom System gesteuert.
In dem Bericht lässt die Ethik-Kommission die Klärung des selbst aufgeführten Beispiels mit den Kindern auf der Straße offen. Klar ist aber: "Auch im Notstand dürfen Menschenleben nicht gegeneinander "aufgerechnet" werden. Dem Einzelnen dürfen keine Solidarpflichten auferlegt werden, sich für andere aufzuopfern, auch dann nicht, wenn nur so andere Menschen gerettet werden können." Doch nur einen Absatz später schränkt die Kommission ein: "Anders könnte dann zu entscheiden sein, wenn mehrere Leben bereits unmittelbar bedroht sind und es nur darum geht, so viele Unschuldige wie möglich zu retten."
Dann scheine es "vertretbar", die Wahl derjenigen Handlungsvariante zu fordern, die "möglichst wenig Menschenleben kostet". Sprich: Das selbstfahrende Auto müsste in diesem Beispiel den Fahrer in den sicheren Tod über die Klippe schicken.
Alte Frau oder eine Gruppe von Kindern?
Beispiel 2: Alte Frau oder eine Gruppe von Kindern?
Ein Auto fährt durch eine einspurige Einbahnstraße. Plötzlich tritt unvermittelt eine alte Frau auf die Straße. Doch wenn das vollautomatisierte Auto der Frau ausweicht, fährt es zwangsläufig in eine Gruppe von Kindern, die am Straßenrand spielt. Für die Insassen des Autos dürfte der Aufprall ungefährlich sein, für die Personen außerhalb des Autos aber nicht.
Auch hier gilt das beim ersten Beispiel genannte Verbot des "Aufrechnens" von Menschenleben. Die Ethik-Kommission hält aber eine "Programmierung auf die Minimierung der Opfer" auch vor dem ersten Artikel des Grundgesetzes für vertretbar, wenn die Programmierung "das Risiko eines jeden einzelnen Verkehrsteilnehmers in gleichem Maße reduziert". Sprich: Es wäre allgemein auch im Interesse der Geopferten, dass solche Regeln gelten, bevor sie in der Situation als Opfer identifizierbar waren. Das Auto müsste also auf die alte Frau zusteuern – aber natürlich versuchen, die Unfallfolgen mit einer Vollbremsung so weit wie möglich zu vermindern.
In diesen Situationen möchten die Deutschen autonom fahren
63 Prozent aller Deutschen möchten die Kontrolle beim Einparken abgeben. Das ergab eine repräsentative Umfrage des Digitalverbands Bitkom aus dem Jahr 2015.
45 Prozent möchten im Stau autonom fahren.
Auf der Autobahn möchten 15 Prozent der Befragten die Kontrolle abgeben.
Neun Prozent möchten im Stadtverkehr autonom unterwegs sein.
Sieben Prozent wollen auf allen Straßen die Kontrolle übers Fahren abgeben.
27 Prozent möchten die Kontrolle gar nicht abgeben.
Anders sähe es aus, wenn am Straßenrand nicht mehrere Kinder, sondern nur eines spielen würden – mögliche Opfer dürfen nicht nach Alter, Geschlecht und anderen Merkmalen unterschieden werden. Hier lassen die aufgestellten Richtlinien keinen klaren Schluss zu – was wiederum das Dilemma der Kommission zeigt.
Allerdings hält die Kommission auch fest, dass die Mitglieder in dem Fall der Abwägung über Menschenleben ihre Diskussion "noch nicht befriedigend und auch nicht in jeder Hinsicht konsensual" zu Ende führen konnten. Eine klare ethische Meinung gibt es also noch nicht.
Beispiel 3: Sachschaden vor Personenschaden
Am Straßenrand parkt ein Tanklaster. Hinter dem Tanklaster tritt plötzlich ein Fußgänger hervor. Das herannahende vollautomatisierte Auto kann nicht mehr rechtzeitig bremsen – entweder trifft es den Passanten mit einer solchen Geschwindigkeit, dass der Passant vermutlich verletzt, aber nicht getötet wird, oder es lenkt in den Tanklaster hinein.
Hier scheint die Situation klar: Auch auf das Risiko hin, dass der Tanklaster beschädigt wird und große Umweltschäden oder gar ein Brand entstehen könnten, wird das Auto natürlich in den Lkw steuern. Laut der Ethik-Kommission ist die Lage aber nicht so klar. "Abstrakt generelle Regelungen wie Sachschaden vor Personenschaden treffen bei der Vielfalt und Komplexität der verschiedenen denkbaren Szenarien auf das Problem, dass eine Normierung aller Situationen nicht möglich ist", heißt es in dem Bericht. "Die Prämisse der Minimierung von Personenschäden kann nur dann konsequent eingehalten werden, wenn eine Folgenabschätzung bei Sachschäden versucht wird und mögliche folgende Personenschäden in das Verhalten bei Dilemma-Situationen einkalkuliert
werden."
Dennoch hat der Fußgänger hier Glück, denn die Kommission hat trotz der Bedenken eine konkrete Regel aufgestellt (Ethische Regel 7).
Noch viele Hürden für selbstfahrende Autos
Autopiloten sind in Flugzeugen Standard. Auch in Schiffen übernimmt zumindest außerhalb der Häfen oft der Computer das Ruder. Am Ende geht es auch beim autonomen Fahren um einen Autopiloten, der das Fahrzeug steuert. Doch der Autoverkehr ist komplex. Auf der Autobahn können die Prototypen der Industrie bereits ohne größere Probleme ohne Eingriffe des Fahrers unterwegs sein. Im Stadtverkehr wird es schon schwieriger. Halbautomatische Funktionen sind allerdings inzwischen Alltag. Ob Tempomaten, Einparkhilfen, Stauassistenten oder Abstandsregler - viele Funktionen entlasten den Fahrer bereits. Auch etwa Mähdrescher können längst eigenständig über das Feld fahren.
Eins der wichtigsten Argumente ist die Sicherheit. Die meisten Unfälle gehen auf Fahrfehler zurück. Weit oben in der Statistik: zu hohe Geschwindigkeit, zu geringer Abstand oder Abbiegefehler. Automatisch gesteuerte Autos würden solche Fehler minimieren. Denn Risikofreude, Spaß an der Geschwindigkeit und Selbstüberschätzung kennt ein Computer nicht. Er bremst, wenn der Abstand zu gering wird und nimmt nicht aus Unachtsamkeit anderen die Vorfahrt.
Die Entwicklung ist recht weit fortgeschritten. BMW etwa testet seit Jahren automatisch fahrende Autos, auch auf deutschen Autobahnen. Die Fahrzeuge können auch eigenständig überholen. Solche Tests müssen sich die Hersteller aber von Behörden genehmigen lassen. Audi ließ jüngst zur US-Technikmesse CES einen Wagen „autonom“ rund 900 Kilometer aus dem Silicon Valley nach Las Vegas fahren. Auch Daimler präsentierte auf der CES seine Vision für ein selbstfahrendes Auto der Zukunft. Der silberne Mercedes-Prototyp fuhr autonom auf die Bühne nach einer Tour durch die Wüste und die Hotel-Meile der Glücksspiel-Stadt. Zumindest für die Autobahn können sich manche Hersteller pilotiertes Fahren bereits in fünf bis sieben Jahren vorstellen.
Hier beginnen die Schwierigkeiten jenseits der Technik. Die erste Hürde ist das „Wiener Übereinkommen für den Straßenverkehr“ von 1968, das die Basis für die meisten Verkehrsregelungen ist. Darin gibt es zwar Hinweise zu Zugtieren, aber von selbstfahrenden Autos ist nicht die Rede. Dafür aber davon, dass jedes Auto einen Fahrer braucht, der am Ende verantwortlich ist. Dass Autofahrer am Ende Verantwortung und Kontrolle völlig abgeben werden, gilt eher als unwahrscheinlich. Noch fehlen dafür aber Regeln und Gesetze. Bei den bisher fahrenden Prototypen auf normalen Strecken müssen in Deutschland die Fahrer darauf geschult sein.
Europas größter Versicherer, die Allianz, würde auch selbstfahrende Autos versichern. Allerdings würde sich die Risikoeinschätzung ändern, denn das Risiko verlagere sich vom menschlichen Fehler des Fahrers zum Entwickler der Autopiloten. Allerdings glauben die Versicherer nicht daran, dass es vollständig selbstfahrende Auto geben wird. Ein Fahrer werde auch künftig einen Führerschein brauchen, und das Gefährt im Notfall oder in Situationen wo es nötig ist, kontrollieren zu können.
Sicherlich auch, um Kunden mit immer ausgereifteren Extras zu locken. Doch daneben spielt auch die mögliche Konkurrenz durch andere Spieler eine Rolle. So arbeitet etwa auch der Internetkonzern Google seit einigen Jahren an selbstfahrenden Autos.
Beispiel 4: Tiere auf der Fahrbahn
Einige Pferde sind von einer Koppel entflohen und stehen hinter einer nicht einsehbaren Kurve auf der Straße. Am Straßenrand steht ein Passant, der versucht, die Pferde von der Straße zu locken. Das vollautomatisierte Auto kann den Aufprall nicht mehr vermeiden.
Die Ethik-Kommission erkennt hier eine Schutzwürdigkeit des Wesens an und den Auftrag des Menschen, die Tiere als Teil der Schöpfung vor Schaden zu bewahren. Gleichwohl heißt es, dass Tieren nicht der gleiche Status wie Menschen zukommen könne. "Personenschäden sind daher vorrangig zu vermeiden, auch vor Tierschutzinteressen", so der Bericht. "Sofern jedoch Personenschäden ausgeschlossen werden können, sollte der Schutz höher entwickelter Tiere grundsätzlich Priorität vor einfachen (kalkulierbaren) Sachschäden haben."
In unserem Beispiel müsste das Auto also den Passanten verschonen und auf die Pferde zuhalten. Wäre allerdings kein Mensch am Straßenrand, sondern etwa ein Baum oder ein geparktes Auto, könnten die Tiere Glück haben – wenn das Auto ausschließen kann, dass bei dem Aufprall die eigenen Insassen verletzt werden könnten. Doch auch hier gilt wie schon in Beispiel 1: Der eigenverantwortliche Fahrer hätte die Wahl, intuitiv zu handeln – die Technologie nimmt ihm aber diese Möglichkeit.