Der Tag wird kommen, an dem es kracht. An dem ein Auto eine steile Straße hinabrollt, sich der Passagier gerade eine Pause gönnt – und plötzlich vor ihm eine Frau mit dem Fahrrad stürzt, im Kindersitz ein kleiner Junge. Ein paar Millisekunden werden der Software reichen, um festzustellen: Der Bremsweg ist zu kurz. Was soll das selbstfahrende Auto tun? Fährt es geradeaus, überrollt es Mutter und Kind. Reißt es das Steuer nach links, stürzen Auto und Fahrer einen Abhang hinunter. Drei Menschenleben, zwei Optionen.
Physik trifft auf Philosophie
Kürzlich hat eine vom Bundesverkehrsministerium eingesetzte Ethikkommission 20 Regeln fürs selbstfahrende Auto vorgelegt. Vor der Frage, ob ein Auto bei einem unvermeidlichen Unfall den Tod des einen oder anderen Menschen in Kauf nehmen soll, drückte sich das Gremium. Nur so viel entschied es: Man dürfe Menschenleben nicht gegeneinander aufrechnen. Aber kann man einem Algorithmus überhaupt vorschreiben, keine Schlüsse aus Daten zu ziehen, auf deren Grundlage er arbeitet?
Dass vom Menschen erschaffene Maschinen die Macht ergreifen, war lange Zeit Science-Fiction – taugt aber heute schon zur Prognose. Algorithmen haben große Spielräume. Sie lotsen uns durch den Straßenverkehr, sie entscheiden, was wir lesen und hören wollen, wer eine Versicherung bekommt, und empfehlen etwa Polizisten, wie lange ein Verdächtiger in Haft bleiben soll. Die Debatte um den Entscheidungsspielraum des selbstfahrenden Autos dient als Schablone für Art und Umfang von Maschinendiensten in der Zukunft – für Roboter in der Fabrik, die mit Menschen zusammenarbeiten, oder Rechner im Krankenhaus, die Ärzten eine bestimmte Therapie nahelegen. Lässt sich ethisches Handeln programmieren? Können wir Maschinen Moral beibringen?
Mattias Ulbrich ist Audis erster Mann für IT. Alle Experten, so betont er, seien sich darin einig, dass Unfälle mit Verletzten oder gar Toten durch automatisiertes Fahren seltener werden. „Heute ist bei mehr als 90 Prozent aller Unfälle menschliches Versagen beteiligt.“ Mag sein. Aber verliert ein Unfall seinen Schrecken dadurch, dass er selten wird? „Die Menschen wollen wissen, warum etwas passiert ist“, sagt Volker Lüdemann: „Wenn Sie Ihr Kind bei einem Unfall verlieren, reicht es Ihnen nicht, dass jemand den Schaden zahlt – und auf eine bessere Unfallstatistik verweist.“ Lüdemann ist Jurist. Sein Spezialgebiet: ethische Fragen der Digitalisierung.
Ethische Grundregeln für autonome Autos
Teil- und vollautomatisierte Verkehrssysteme dienen zuerst der Verbesserung der Sicherheit aller Beteiligten im Straßenverkehr. Daneben geht es um die Steigerung von Mobilitätschancen und die Ermöglichung weiterer Vorteile. Die technische Entwicklung gehorcht dem Prinzip der Privatautonomie im Sinne eigenverantwortlicher Handlungsfreiheit.
Quelle: Bundesverkehrsministerium
Der Schutz von Menschen hat Vorrang vor allen anderen Nützlichkeitserwägungen. Ziel ist die Verringerung von Schäden bis hin zur vollständigen Vermeidung. Die Zulassung von automatisierten Systemen ist nur vertretbar, wenn sie im Vergleich zu menschlichen
Fahrleistungen zumindest eine Verminderung von Schäden im Sinne einer positiven Risikobilanz verspricht.
Die Gewährleistungsverantwortung für die Einführung und Zulassung automatisierter und vernetzter Systeme im öffentlichen Verkehrsraum obliegt der öffentlichen Hand. Fahrsysteme bedürfen deshalb der behördlichen Zulassung und Kontrolle. Die Vermeidung von Unfällen ist Leitbild, wobei technisch unvermeidbare Restrisiken einer Einführung des automatisierten Fahrens bei Vorliegen einer grundsätzlich positiven Risikobilanz nicht entgegenstehen.
Die eigenverantwortliche Entscheidung des Menschen ist Ausdruck einer Gesellschaft, in der der einzelne Mensch mit seinem Entfaltungsanspruch und seiner Schutzbedürftigkeit im Zentrum steht. Jede staatliche und politische Ordnungsentscheidung dient deshalb der freien Entfaltung und dem Schutz des Menschen. In einer freien Gesellschaft erfolgt die gesetzliche Gestaltung von Technik so, dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt.
Die automatisierte und vernetzte Technik sollte Unfälle so gut wie praktisch möglich vermeiden. Die Technik muss nach ihrem jeweiligen Stand so ausgelegt sein, dass kritische Situationen gar nicht erst entstehen, dazu gehören auch Dilemma-Situationen, also eine Lage, in der ein automatisiertes Fahrzeug vor der „Entscheidung“ steht, eines von zwei nicht abwägungsfähigen Übeln notwendig verwirklichen zu müssen. Dabei sollte das gesamte Spektrum technischer Möglichkeiten – etwa von der Einschränkung des Anwendungsbereichs auf kontrollierbare Verkehrsumgebungen, Fahrzeugsensorik und Bremsleistungen, Signale für gefährdete Personen bis hin zu einer Gefahrenprävention mittels einer „intelligenten“ Straßen-Infrastruktur – genutzt und kontinuierlich weiterentwickelt werden. Die erhebliche Steigerung der Verkehrssicherheit ist Entwicklungs- und Regulierungsziel, und zwar bereits in der Auslegung und Programmierung der Fahrzeuge zu defensivem und vorausschauendem, schwächere Verkehrsteilnehmer („Vulnerable Road Users“) schonendem Fahren.
Die Einführung höherer automatisierter Fahrsysteme insbesondere mit der Möglichkeit automatisierter Kollisionsvermeidung kann gesellschaftlich und ethisch geboten sein, wenn damit vorhandene Potentiale der Schadensminderung genutzt werden können. Umgekehrt ist eine gesetzlich auferlegte Pflicht zur Nutzung vollautomatisierter Verkehrssysteme oder die Herbeiführung einer praktischen Unentrinnbarkeit ethisch bedenklich, wenn damit die Unterwerfung unter technische Imperative verbunden ist (Verbot der Degradierung des Subjekts zum bloßen Netzwerkelement).
In Gefahrensituationen, die sich bei aller technischen Vorsorge als unvermeidbar erweisen, besitzt der Schutz menschlichen Lebens in einer Rechtsgüterabwägung höchste Priorität. Die Programmierung ist deshalb im Rahmen des technisch Machbaren so anzulegen, im Konflikt Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind.
Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben sind von der konkreten tatsächlichen Situation unter Einschluss „unberechenbarer“ Verhaltensweisen Betroffener abhängig. Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar. Technische Systeme müssen auf Unfallvermeidung ausgelegt werden, sind aber auf eine komplexe oder intuitive Unfallfolgenabschätzung nicht so normierbar, dass sie die Entscheidung eines sittlich urteilsfähigen, verantwortlichen Fahrzeugführers ersetzen oder vorwegnehmen könnten. Ein menschlicher Fahrer würde sich zwar rechtswidrig verhalten, wenn er im Notstand einen Menschen tötet, um einen oder mehrere andere Menschen zu retten, aber er würde nicht notwendig schuldhaft handeln. Derartige in der Rückschau angestellte und besondere Umstände würdigende Urteile des Rechts lassen sich nicht ohne weiteres in abstrakt-generelle Ex-Ante-Beurteilungen und damit auch nicht in entsprechende Programmierungen umwandeln. Es wäre gerade deshalb wünschenswert, durch eine unabhängige öffentliche Einrichtung (etwa einer Bundesstelle für Unfalluntersuchung automatisierter Verkehrssysteme oder eines Bundesamtes für Sicherheit im automatisierten und vernetzten Verkehr) Erfahrungen systematisch zu verarbeiten.
Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt. Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.
Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen. Gesetzliche Haftungsregelungen und ihre Konkretisierung in der gerichtlichen Entscheidungspraxis müssen diesem Übergang hinreichend Rechnung tragen.
Für die Haftung für Schäden durch aktivierte automatisierte Fahrsysteme gelten die gleichen Grundsätze wie in der übrigen Produkthaftung. Daraus folgt, dass Hersteller oder Betreiber verpflichtet sind, ihre Systeme fortlaufend zu optimieren und auch bereits ausgelieferte Systeme zu beobachten und zu verbessern, wo dies technisch möglich und zumutbar ist.
Die Öffentlichkeit hat einen Anspruch auf eine hinreichend differenzierte Aufklärung über neue Technologien und ihren Einsatz. Zur konkreten Umsetzung der hier entwickelten Grundsätze sollten in möglichst transparenter Form Leitlinien für den Einsatz und die
Programmierung von automatisierten Fahrzeugen abgeleitet und in der Öffentlichkeit kommuniziert und von einer fachlich geeigneten, unabhängigen Stelle geprüft werden.
Ob in Zukunft eine dem Bahn- und Luftverkehr entsprechende vollständige Vernetzung und zentrale Steuerung sämtlicher Kraftfahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur möglich und sinnvoll sein wird, lässt sich heute nicht abschätzen. Eine vollständige Vernetzung und zentrale Steuerung sämtlicher Fahrzeuge im Kontext einer digitalen Verkehrsinfrastruktur ist ethisch bedenklich, wenn und soweit sie Risiken einer totalen Überwachung der Verkehrsteilnehmer und der Manipulation der Fahrzeugsteuerung nicht sicher auszuschließen vermag.
Automatisiertes Fahren ist nur in dem Maße vertretbar, in dem denkbare Angriffe, insbesondere Manipulationen des IT-Systems oder auch immanente Systemschwächen nicht zu solchen Schäden führen, die das Vertrauen in den Straßenverkehr nachhaltig erschüttern.
Erlaubte Geschäftsmodelle, die sich die durch automatisiertes und vernetztes Fahren entstehenden, für die Fahrzeugsteuerung erheblichen oder unerheblichen Daten zunutze machen, finden ihre Grenze in der Autonomie und Datenhoheit der Verkehrsteilnehmer. Fahrzeughalter oder Fahrzeugnutzer entscheiden grundsätzlich über Weitergabe und Verwendung ihrer anfallenden Fahrzeugdaten. Die Freiwilligkeit solcher Datenpreisgabe setzt das Bestehen ernsthafter Alternativen und Praktikabilität voraus. Einer normativen
Kraft des Faktischen, wie sie etwa beim Datenzugriff durch die Betreiber von Suchmaschinen oder sozialen Netzwerken vorherrscht, sollte frühzeitig entgegengewirkt werden
Es muss klar unterscheidbar sein, ob ein fahrerloses System genutzt wird oder ein Fahrer mit der Möglichkeit des „Overrulings“ Verantwortung behält. Bei nicht fahrerlosen Systemen muss die Mensch/Maschine-Schnittstelle so ausgelegt werden, dass zu jedem Zeitpunkt klar geregelt und erkennbar ist, welche Zuständigkeiten auf welcher Seite liegen, insbesondere auf welcher Seite die Kontrolle liegt. Die Verteilung der Zuständigkeiten (und damit der Verantwortung) zum Beispiel im Hinblick auf Zeitpunkt und Zugriffsregelungen sollte dokumentiert und gespeichert werden. Das gilt vor allem für Übergabevorgänge zwischen Mensch und Technik. Eine internationale Standardisierung der Übergabevorgänge und der Dokumentation (Protokollierung) ist anzustreben, um angesichts der grenzüberschreitenden Verbreitung automobiler und digitaler Technologien die Kompatibilität der Protokoll- oder Dokumentationspflichten zu gewährleisten.
Software und Technik hochautomatisierter Fahrzeuge müssen so ausgelegt werden, dass die Notwendigkeit einer abrupten Übergabe der Kontrolle an den Fahrer („Notstand“) praktisch ausgeschlossen ist. Um eine effiziente, zuverlässige und sichere Kommunikation zwischen Mensch und Maschine zu ermöglichen und Überforderung zu vermeiden, müssen sich die Systeme stärker dem Kommunikationsverhalten des Menschen anpassen und nicht umgekehrt erhöhte Anpassungsleistungen dem Menschen abverlangt werden.
Lernende und im Fahrzeugbetrieb selbstlernende Systeme sowie ihre Verbindung zu zentralen Szenarien-Datenbanken können ethisch erlaubt sein, wenn und soweit sie Sicherheitsgewinne erzielen. Selbstlernende Systeme dürfen nur dann eingesetzt werden, wenn sie die Sicherheitsanforderungen an fahrzeugsteuerungsrelevante Funktionen erfüllen und die hier aufgestellten Regeln nicht aushebeln. Es erscheint sinnvoll, relevante Szenarien an einen zentralen Szenarien-Katalog einer neutralen Instanz zu übergeben, um entsprechende allgemeingültige Vorgaben, einschließlich etwaiger Abnahmetests zu erstellen.
In Notsituationen muss das Fahrzeug autonom, d.h. ohne menschliche Unterstützung, in einen „sicheren Zustand“ gelangen. Eine Vereinheitlichung insbesondere der Definition des sicheren Zustandes oder auch der Übergaberoutinen ist wünschenswert.
Die sachgerechte Nutzung automatisierter Systeme sollte bereits Teil der allgemeinen digitalen Bildung sein. Der sachgerechte Umgang mit automatisierten Fahrsystemen sollte bei der Fahrausbildung in geeigneter Weise vermittelt und geprüft werden.
Ein Mensch, vor dessen Auto plötzlich eine Radfahrerin stürzt, entscheidet reflexartig. In den meisten Fällen bremst er, mit Erfolg oder ohne. Eine Maschine aber rechnet in Bruchteilen von Sekunden verschiedene Optionen durch – und bewertet sie so, wie ihr dies ursprünglich einmal aufgetragen wurde. Der Tod der Radfahrerin ist dann nicht mehr verhängnisvoll oder schicksalhaft, sondern programmiert. Das ist das Dilemma, vor dem nun jene stehen, die Roboterautos mit Verkehrsregeln vertraut machen.