Recht Wer haftet, wenn künstliche Intelligenz Fehler macht?

Künstliche Intelligenz: Wer haftet, wenn Maschinen Fehler machen? Quelle: dpa

Für die Folgen ihres Handelns können Maschinen derzeit noch nicht rechtlich verantwortlich gemacht werden. Juristen sehen Regelungsbedarf.

  • Teilen per:
  • Teilen per:

Es ist ein Alptraum für jeden Autofahrer: Eine Fußgängerin überquert unvermittelt die Straße - es bleiben nur Sekundenbruchteile, ein tödliches Unglück abzuwenden. Bei Unfällen haftet nach deutschem Recht in aller Regel bislang der Fahrer beziehungsweise der Halter des Autos. Doch was ist, wenn der Fahrer eine Maschine ist, der Mensch hinter dem Steuer nur Passagier?

Ein derartiger Unfall ereignete sich im März in den USA mit einem Roboterauto des Fahrdiensts Uber. Eine 49-Jährige kam ums Leben, die Schuldfrage ist nicht geklärt. Der rasante Fortschritt der künstlichen Intelligenz (KI) beschäftigt auch die Juristen in Europa. Im Haftungsrecht werden Fragen diskutiert, die vor zwanzig Jahren noch jeder für Science Fiction erklärt hätte.

Das hat Bedeutung für die Versicherungen, die bei Unfällen zahlen. „Maschinen mit Lern-Algorithmen werden in immer größerem Umfang Fahraufgaben im Auto übernehmen und schrittweise das menschliche Verschulden verdrängen“, sagt Joachim Müller, Chef der Sachversicherung bei der Allianz Deutschland. „Für die Folgen ihres Handelns können Maschinen derzeit rechtlich aber nicht verantwortlich gemacht werden.“

Künstliche Intelligenz – Freund oder Feind?

Bislang haften in aller Regel der Fahrer beziehungsweise der Halter. Die Autohersteller können nur dann rechtlich zur Verantwortung gezogen werden, wenn ein Produktionsfehler einen Unfall verursacht.
Doch künstliche Intelligenz am Steuer macht Unfälle denkbar, bei denen kein technischer Defekt vorliegt, sondern der Computer einfach die falsche Entscheidung trifft. Selbstlernende Software kann auf Grundlage zuvor eingegebener Daten quasi selbsttätig Muster und Situationen erkennen und darauf reagieren. „Es erscheint mir schwierig, Programmen ein Verschulden anzulasten egal ob sie ausschließlich einem vorgegebenen Algorithmus folgen oder sich selbstständig weiterentwickeln“, sagt Allianz-Vorstandsmitglied Müller dazu.

Bei der Debatte geht es keineswegs nur um Roboterautos. Schon wird diskutiert, ob KI-Maschinen generell nicht eine eigene Rechtspersönlichkeit zugesprochen werden sollte. Dann könnte die künstliche Intelligenz quasi selbst haften. Das Europäische Parlament empfahl der EU-Kommission Anfang 2017, darüber nachzudenken.

Doch dem stehen nicht zuletzt praktische Gründe entgegen: Eine Maschine hat kein Konto, letztlich müsste immer ein dahinter stehender Mensch oder ein Unternehmen zur Rechenschaft gezogen werden.

Und es würde sich eine noch weitergehende Frage stellen: Wenn eine Maschine zivilrechtlich verantwortlich sein kann, muss dann nicht auch das Strafrecht geändert werden? „Wird das selbstfahrende Auto in der Garage inhaftiert? Verschrottet?“, fragt Allianz-Manager Müller.

Kriminelle Maschinen im Knast bleiben vorerst Science Fiction. Doch sollten für computerverursachte Unfälle nicht die Autohersteller haften? „Das kann sich der Gesetzgeber überlegen“, sagt der Rechtswissenschaftler Stephan Lorenz, Lehrstuhlinhaber für Bürgerliches Recht und Internationales Privatrecht an der Ludwig-Maximilians-Universität in München. „Ich persönlich halte das nicht für sinnvoll, denn auch bisher ist es schon so, dass für Produktfehler der Hersteller haftet.“

Das Geschäft mit Big Data erobert den Fußball. Angetrieben von IT-Konzernen wie SAP, setzen Nationalelf, Clubs und Investoren auf immer raffiniertere Datenanalysen und machen Scouts zum Auslaufmodell.
von Peter Steinkirchner

Lorenz hält die derzeitigen Regelungen für ausreichend: „Es ist aus juristischer Sicht keine Revolution vonnöten.“ Nach geltender Rechtslage hafte im Autoverkehr der Halter für Schäden, die mit seinem Fahrzeug verursacht werden. „Es gilt hier wegen der potenziellen Gefahr das Prinzip der Gefährdungshaftung.“ Dieses besagt, dass für den Betrieb bestimmter potenziell gefährlicher Maschinen und Anlagen - dazu zählen etwa Autos, Züge, Flugzeuge und Atomkraftwerke - der Betreiber haftet. „Diese Haftung reicht aus, auch wenn das Auto selbst fährt“, sagt Rechtswissenschaftler Lorenz.

Auch nach Einschätzung des Bundesjustizministeriums besteht derzeit kein Handlungsbedarf. Regelungen zum automatisierten Fahren sind erst 2017 in das Straßenverkehrsgesetz aufgenommen worden. Eine uneingeschränkte Verantwortlichkeit des Herstellers für Fehlentscheidungen einer intelligenten Maschine sei nicht angemessen, meint Markus Häuser, Anwalt in der international tätigen Anwaltssozietät CMS. „Es kann allerdings erforderlich werden, den Fehlerbegriff im Kontext autonomer Systeme und KI weiter zu präzisieren.“

Da die Technik rapide fortschreitet, ist das letzte Wort nicht gesprochen. Auch in den USA haften Hersteller bisher nur für Produktionsmängel. Die Denkfabrik US Chamber Institute for Legal Reform argumentiert, dieses Prinzip sei nicht mehr angemessen - weil KI nach dem Verkauf dazulerne und sich verändere. Die Allianz plädiert dafür, über ein KI-Gesetz nachzudenken. „Dieses Gesetz sollte einen Gefährdungshaftungstatbestand enthalten“, sagt Sachversicherungschef Müller. Rechtlich würde KI damit wie Auto und Atomkraftwerk betrachtet: potenziell gefährlich.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%