WiWo App 1 Monat für nur 0,99 €
Anzeigen

Künstliche Intelligenz Warum selbstlernende Maschinen keine Richter ersetzen

Seite 2/2

Eine Angelegenheit des Menschen und für den Menschen

Und es bestehen grundsätzlich tiefer greifende Zweifel daran, ob herkömmliche Reaktionsmuster des Rechts in einer KI-Welt wirklich weiterhelfen: Die Fortschritte in der Forschung sind so rasant und die gesellschaftlichen Folgen der neuen Anwendungen derart groß, dass graduelle rechtliche Anpassungen kaum genügen können, um die von den technischen Entwicklungen ausgehenden Schockwellen rechtzeitig einzufangen. Recht läuft in einem solchen Umfeld Gefahr, an eigener Lenkungskraft zu verlieren. KI-Konzerne wie Facebook, Google, Amazon und Co. setzen die Spielregeln ihrer Dienste oftmals selbst, wenn sie ein neues Produkt auf den Markt werfen. Facebook etwa ließ Menschen „taggen“, also markieren, ohne vorher die daraus resultierenden Rechtsfragen in einem demokratischen System zu klären. Solche Spielregeln, die von Unternehmern und Ingenieuren aus dem Silicon Valley global gesetzt werden, sind von kommerziellen Motiven geleitet, und es mangelt ihnen oft an ethischer Orientierung. Diese Machtverschiebung, weg vom demokratisch legitimierten Gesetzgeber, hin zu Milliardenkonzernen, sind gefährlich für die Autonomie des Menschen und die Demokratie. Für manche Beobachter stehen wir deshalb am Anfang einer Krise des Rechts. Umso wichtiger ist es, über eine Neucodierung des Rechtssystems nachzudenken. Prominente Forscher und Institutionen setzen nun darauf, im Rechtssystem selbst KI-Lösungen einzusetzen, um die Grenzen des bisherigen Rechts zu überwinden. Dies ist aber riskant.

Polizeibehörden nutzen nicht nur in den USA schon heute intelligente Softwaresysteme, die die Wahrscheinlichkeit berechnen sollen, in welchen Stadtvierteln Verbrechen passieren werden, um Polizisten bei ihrer Arbeit zu entlasten. In den USA setzen Richter Softwarepakete ein, die die vom Beschuldigten ausgehende Gefahr für die Gesellschaft berechnen. Was das System ausspuckt, wirkt sich auf Kaution, Bewährungszeit und sogar das Strafmaß aus.

Solche assistierenden KI-Anwendungen für Juristen klingen vielversprechend. Theoretisch könnten sie Rechtsprechung effizienter und fairer machen, indem sie etwa Vorurteile des Richters eliminieren. In der Praxis zeigt sich aber: Auch sie sind fehleranfällig – und verstärken bei falscher Anwendung gesellschaftliche Probleme exponentiell. Tests etwa mit einer populären Software, die die Rückfallgefahr von Straftätern berechnen soll, haben gezeigt, dass schwarze Täter regelmäßig als gefährlicher eingestuft werden als weiße Delinquenten mit längerem Vorstrafenregister. Während das Recht Verfahren bereithält, wie mit menschlichen Fehlurteilen im Einzelfall umzugehen ist, ist derzeit nicht klar, wie mit systematischen Fehlleistungen von Maschinen umgegangen werden soll.

Dennoch gibt es noch viel radikalere Vorschläge, wie KI im Rechtssystem eingesetzt werden kann, um mit ihrer Komplexität fertigzuwerden: Konzepte, die darauf abzielen, Rechtsnormen gleichsam in KI-Systeme mit einzuprogrammieren. Ein Vorschlag von Computer- und Rechtswissenschaftlern der Universität Washington geht etwa so weit, KI-Systeme durch andere KI-Wächtersysteme in Echtzeit juristisch überwachen zu lassen. Der Gedanke ist interessant: Warum nicht die Regeln für ein KI-System – beispielsweise die auf ein selbstfahrendes Auto anwendbaren Vorschriften des Straßenverkehrs – direkt in ein Überwachungssystem einprogrammieren? Von da wäre es nur noch ein kleiner Schritt, die vom KI-System gesammelten Feedback-Daten zu Fahr- und Verhaltensweisen auch gleich zur Optimierung der Vorschriften selbst zu verwenden. Zu Ende gedacht, könnte also KI die Funktionen von Polizei, Richter und Gesetzgeber gleichsam in einer Maschine erfüllen. So könnten beispielsweise KI-Systeme in naher Zukunft Steuersünder aufgrund von Big-Data-Mustern erkennen, entsprechende Nachzahlungen oder Bußen berechnen und zustellen und die entdeckten Lücken oder Schlupflöcher durch automatische Anpassung der Vorschriften schließen. Solche Entwicklungen mögen auf den ersten Blick begrüßenswert erscheinen, stellen aber das Grundprinzip der Gewaltenteilung infrage.

Natürlich darf ein modernes Rechtssystem nicht erstarren, nur weil KI komplex ist und die Folgen unsicher sind. Im Gegenteil: Das Recht muss seine Gestaltungskraft auch in Zukunft nutzen. Dabei muss es selbst dazulernen können, wobei es sich die Möglichkeiten der neuen Technologien zunutze machen sollte. Aber die Bestrebungen, Rechtsetzung und Anwendung in Zukunft durch Verfahren der KI zu ersetzen, sind gefährlich. Kein KI-System ist heute und in absehbarer Zeit in der Lage, eine der Institution Recht vergleichbare Legitimation zu erlangen. Trotz aller Herausforderungen, die KI-Anwendungen an das Recht stellen und noch stellen werden, gilt: Recht ist auch – oder gerade – im Zeitalter von KI die verlässlichste Hüterin jener menschlichen Autonomie, in welche automatisierte Systeme und smarte Maschinen immer stärker einzugreifen versuchen. Maschinen sollten deshalb keine Gesetze schreiben und keine Richter ersetzen dürfen. Recht muss eine Angelegenheit des Menschen und für den Menschen bleiben.

Inhalt
Artikel auf einer Seite lesen
Zur Startseite
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%