Künstliche Intelligenz: Warum selbstlernende Maschinen keine Richter ersetzen

GastbeitragKünstliche Intelligenz: Warum selbstlernende Maschinen keine Richter ersetzen

Fortschritte in der künstlichen Intelligenz fordern das Recht heraus. Nur Menschen im Talar helfen dagegen.

Bild vergrößern

Urs Gasser leitet das Berkman Klein Center for Internet & Society der Harvard University und ist Professor an der Harvard Law School.

Schon seit Jahrzehnten arbeiten Wissenschaftler daran, künstlich intelligente Systeme zu erschaffen. Die ersten Versuche gehen bis auf die Fünfzigerjahre des vergangenen Jahrzehnts zurück. Aber erst in den vergangenen Jahren sind aus Visionen Produkte entstanden, die rasant unseren Alltag verändern: Wenn das neue iPhone X das Gesicht des Nutzers erkennt und Google Texte automatisch in Fremdsprachen übersetzt, dann setzt dies alles auf einem atemberaubenden Fortschritt auf, den die Computerwissenschaften in den letzten Jahren gemacht haben. Die neuesten Anwendungen der künstlichen Intelligenz werden immer komplexer und betreffen Aspekte des menschlichen Lebens, die noch vor ein paar Jahren unvorstellbar waren: Sie reichen vom selbstfahrenden Automobil über Newsfeeds in sozialen Netzwerken bis hin zu digitalen Tutoren oder medizinischen Diagnose- und autonomen Waffensystemen.

Vielen dieser Anwendungen ist gemein, dass sie ein Maß an Autonomie erreichen können, bei dem Maschinen menschliche Entscheidungen vorwegnehmen: etwa, wenn ein selbstfahrendes Auto ein Ausweichmanöver einleitet und dabei Risikoabwägungen vornimmt, die heute der Verantwortung des Fahrers obliegen. Und je öfter diese KI-Systeme zum Einsatz kommen, je mehr Daten sie zugefüttert bekommen, umso schneller entwickeln sie sich weiter und werden immer autonomer. So sehr, dass selbst ihre Schöpfer schon heute zum Teil nicht mehr verstehen, geschweige denn im Einzelfall voraussehen können, wie ihre Maschinen handeln werden. Immer mehr KI-Systeme im Alltag werfen deshalb eine Reihe von Grundsatzfragen für das Recht auf.

Anzeige

 Wer soll etwa für die künstlich intelligenten, sich selbst steuernden Maschinen verantwortlich sein? Der Käufer oder der Besitzer des Pflegeroboters, der einen Patienten verletzt hat? Der Hersteller? Der Roboter selbst? Und wie kann Recht gesellschaftlich nicht akzeptable Formen von Diskriminierung – etwa aufgrund des Geschlechts, Alters, oder der sexuellen Neigung – eindämmen, wenn diese einen Komplexitätsgrad erreichen, welche sie selbst für Experten zu Blackboxes machen? Solche Entwicklungen gibt es längst: Wissenschaftler der Stanford-Universität programmierten jüngst ein Bilderkennungssystem, das die Wahrscheinlichkeit berechnen soll, ob ein Mensch homosexuell ist. Niemand weiß, wie das genau geschieht – und vor allem, wozu?

Ethische Algorithmen Haben Maschinen eine Moral?

Autonome Autos oder Sicherheitsroboter: Wer Maschinen programmiert und zum Erfolg bringt, hat enorme Macht. Und bei der Beantwortung der Frage: "Wen würden Sie töten?" gibt es große kulturelle Unterschiede.

Quelle: Getty Images

Auf viele dieser Fragen wird das Recht, das mit neuen Technologien im Wechselspiel steht, eine Antwort finden. Das Rechtssystem stellt seit Jahrhunderten ausgefeilte Mechanismen bereit, die technologische Innovationen und darauf basierende gesellschaftliche Veränderungen erfolgreich aufnehmen und steuern. So hat eine Kombination von Spezialgesetzen und allgemeiner Rechtsvorschriften schon in der ersten Hälfte des 19. Jahrhunderts dazu geführt, dass die damals als disruptiv geltende Technologie Eisenbahn erfolgreich reguliert wurde. Es liegt in der Eigenlogik des Rechts, dass Juristen auch bei KI zunächst versuchen werden, bestehende Regeln im Rechtssystem auf die neuen Technologien anzuwenden. Wenn beispielsweise ein neuartiges, KI-basiertes medizinisches Diagnosesystem auf den Markt kommt, dürften sie erst einmal die Rechtsnormen und amtlichen Testverfahren anwenden, die schon heute für die Zulassung medizinischer Geräte und Anwendungen notwendig sind. Diese alten Regeln werden aber nicht immer und wohl immer weniger zu den neuen Problem- und Fragestellungen passen, die künstlich intelligente Systeme aufwerfen. In diesen Fällen werden bestehende Gesetze erneuert werden müssen. Und auch das geschieht schon: Kürzlich bekam das deutsche Straßenverkehrsgesetz ein solches graduelles „Upgrade“ für den „Betrieb von Kraftfahrzeugen mit voll automatisierter Fahrfunktion“, sprich: um selbstfahrende Autos unter bestimmten Bedingungen zuzulassen.

Von Innovationsfeinden und Profitmaximierern

Solche graduellen Anpassungsprozesse des Rechts infolge von technischer Veränderungen schaffen schnell Rechtssicherheit und wirken dem entgegen, dass Überregulierung Innovationen verhindern. Es gibt aber auch Nachteile, die sich im KI-Zeitalter verschärfen: Weil KI-Anwendungen so viele verschiedene Bereiche wie etwa das Gesundheits- und Finanzwesen durchdringen, droht bei einem schritt- und bereichsweisen Anpassen ein Dickicht von inkohärenten Rechtsnormen. Eine solche Fragmentierung könnte es im schlimmsten Fall unmöglich machen, dass gesellschaftlich wünschenswerten KI-Systeme – etwa beim Monitoring und Bekämpfen der Klimaerwärmung – global angewendet werden können.



Anzeige
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%