Google und Tesla verfolgen aber genau diesen Ansatz. Sie lassen ihre Testwagen möglichst viele Meilen fahren, um ihre KI-Systeme mit den daraus gewonnenen Daten zur Vollkommenheit zu trainieren. Sie sagen, das funktioniert gar nicht?
Technologisch schon, wenn man so viele Meilen abfahren würde. Aber gesellschaftlich nicht, weil das Problem der Blackbox weiter existiert. Wenn Menschen Unfälle verursachen, akzeptieren wir das. Wir wissen, dass unsere Spezies nicht unfehlbar ist. Tötet ein Computer einen Menschen, wird es einen gewaltigen Aufschrei geben; das ist in unserem Wertesystem nicht vorgesehen. Ohne verlässliche Regeln könnten Unfälle das Ende der Entwicklung des autonomen Fahrens bedeuten. Und Unfälle wird es geben, denn viele Jahre werden selbstfahrende Autos und solche mit menschlichen Fahrern parallel existieren. Und Menschen machen Fehler. Also brauchen wir Regeln, die helfen, auszuschließen, dass das Roboterauto schuld war.
Wie könnten solche Regeln aussehen?
Man muss sie als Algorithmen programmieren, die absolut sicherstellen: Wenn sich das autonome Fahrzeug daran gehalten hat, kann es zu 100 Prozent keinen schuldhaften Unfall verursacht haben. Das muss dann in die Gesetze übertragen werden. Heute haben wir nur die Straßenverkehrsordnung als Regeln.
Was ist an der verkehrt?
Nichts; es reicht aber nicht aus, wenn Hersteller gemäß der Straßenverkehrsordnung ihre Algorithmen so programmieren, dass die Autos nicht bei Rot über die Ampel oder innerorts nicht schneller als 50 Kilometer pro Stunde fahren. Denn dazwischen liegt eine Unmenge von Variablen und Situationsabwägungen, die Menschen mit Regelwissen, aber eben auch mit Erfahrung und Ermessensspielräumen meistern. Genau diesen Ermessensspielraum muss man für die Maschine formalisieren – und dann für alle Hersteller verbindlich festschreiben.
Wollen Sie ernsthaft versuchen, alle kritischen Verkehrssituationen vorherzusehen und in Formeln zu übersetzen?
Das geht. Wir haben solch eine Formelsammlung auch schon entwickelt. Dazu haben wir sechs Millionen Unfälle genau analysiert. 99,4 Prozent davon fallen in eines von 37 typischen Szenarien. Unsere mathematischen Modelle decken diese alle ab.
Geben Sie uns ein Beispiel?
Bei Auffahrunfällen ist der Fahrer des hinteren Wagens schuld, weil man davon ausgeht, dass er oder sie nicht genügend Abstand gehalten hat. Ob das auffahrende Auto genügend Abstand hatte, kann man bei selbstfahrenden Autos relativ leicht berechnen: Man braucht dazu nur die Tempi beider Fahrer, die Straßenbeschaffenheit, die Sichtverhältnisse und Bremswege. Das sind alles Daten, die wir erfassen können. Wäre das auffahrende Auto ein Roboterwagen, würde man einfach nachprüfen: Hielt es Mindestabstand und Höchstgeschwindigkeit ein? Waren alle Funktionen intakt? Und damit könnte ausgeschlossen werden, dass das Roboterauto schuld war.
Selbst wenn es funktioniert: Sie müssen sehr viele Partner von Ihrem Formelkatalog überzeugen. Wie wollen Sie das schaffen?
Wir sprechen bereits mit zahlreichen namhaften Herstellern, die derzeit selbstfahrende Autos entwickeln. Die ersten Reaktionen sind sehr ermutigend. Denn auch die Hersteller haben ja ein vitales Interesse an einem verlässlichen Rechtsrahmen.