Regulierung: Esken fordert Aufsichtsbehörde für Künstliche Intelligenz
«Natürlich liegen auch Gefahren darin, wie in allen Technologien», sagt SPD-Chefin Saskia Esken über Künstliche Intelligenz.
Foto: dpaSPD-Chefin Saskia Esken plädiert für die Einrichtung einer Aufsichtsbehörde für den Einsatz Künstlicher Intelligenz (KI) in Deutschland. „Weil der Umgang mit Daten bei der Aufsicht eine bedeutende Rolle spielt, könnte der Beauftragte für den Datenschutz und die Informationsfreiheit eine gute Wahl sein“, sagte die Digitalpolitikerin der Deutschen Presse-Agentur. „In jedem Fall brauchen wir eine Behörde, die beurteilt, ob der Einsatz von KI Recht und Gesetz folgt.“
Esken betonte, Künstliche Intelligenz berge ein großes Potenzial beispielsweise für gerechtere Bildung, für bessere medizinische Versorgung und eine effizientere Verwaltung. „Aber natürlich liegen auch Gefahren darin, wie in allen Technologien.“
Es sei gut, dass Deutschland und Europa nicht nur technologisch vorn dabei seien, sondern auch bei der Überlegung, wie man den Einsatz Künstlicher Intelligenz regulieren könne.
„Im höchsten Risikofall verbieten“
Die Europäische Union sei auf dem Weg, eine Verordnung zur Regulierung zu entwickeln. „Im höchsten Risikofall könnte der Einsatz von KI-Modellen verboten werden“, sagte Esken. „In weniger, aber immer noch riskanten Bereichen könnte eine menschliche Letztentscheidung vorgegeben werden – und natürlich auch die Möglichkeit, Rechtsmittel einzulegen, also dagegen zu klagen, wenn ich eine Entscheidung für ungerechtfertigt halte.“
Die EU-Pläne für den sogenannten AI Act sollen einen weltweit einmaligen Rechtsrahmen dafür schaffen, wie KI-Systeme entwickelt und gegen Missbrauch geimpft werden können. Die Arbeit der Algorithmen soll nachprüfbar sein. Darin soll auch festgelegt werden, welche Entscheidungen nicht von Maschinen getroffen werden dürfen. Ab 2025 könnten die Regeln in der Europäischen Union wirksam werden. Die Vorschläge der EU-Kommission und des Ministerrats für eine staatliche Regulierung künstlicher Intelligenz im AI Act liegen bereits seit Ende 2022 vor.
Die Pläne zur Regulierung stoßen auf wenig Gegenliebe der Unternehmen. So drohte beispielsweise Sam Altman, Mitgründer und Chef des ChatGPT-Anbieters OpenAI, bereits damit, die Firma könnte sich aus Europa zurückziehen.
Aufpassen muss man aus Sicht Eskens, dass Künstliche Intelligenz nicht Diskriminierung aus der Datenlage lernt. „Wenn eine Künstliche Intelligenz beispielsweise Karrierewege von Journalistinnen und Journalisten in den Medienhäusern analysieren würde, käme sie womöglich auf die Idee, nur Männer einzustellen, weil die erfolgreichsten Karrieren bisher von Männern gemacht wurden“, erläuterte sie.
„Wir müssen dafür sorgen, dass Trainingsdaten von solcher Diskriminierung befreit werden oder gleich dafür sorgen, dass das Geschlecht bei der Auswahl keine Rolle spielt.“
Lesen Sie auch: Was kann und was darf künstliche Intelligenz in der Finanzbranche?