SPD-Chefin Saskia Esken plädiert für die Einrichtung einer Aufsichtsbehörde für den Einsatz Künstlicher Intelligenz (KI) in Deutschland. „Weil der Umgang mit Daten bei der Aufsicht eine bedeutende Rolle spielt, könnte der Beauftragte für den Datenschutz und die Informationsfreiheit eine gute Wahl sein“, sagte die Digitalpolitikerin der Deutschen Presse-Agentur. „In jedem Fall brauchen wir eine Behörde, die beurteilt, ob der Einsatz von KI Recht und Gesetz folgt.“
Esken betonte, Künstliche Intelligenz berge ein großes Potenzial beispielsweise für gerechtere Bildung, für bessere medizinische Versorgung und eine effizientere Verwaltung. „Aber natürlich liegen auch Gefahren darin, wie in allen Technologien.“
Es sei gut, dass Deutschland und Europa nicht nur technologisch vorn dabei seien, sondern auch bei der Überlegung, wie man den Einsatz Künstlicher Intelligenz regulieren könne.
Künstliche Intelligenz – Geschichte einer Idee
In den Fünfzigerjahren prägte ein Forschungspapier den Begriff künstliche Intelligenz (KI) erstmalig. KI sollte „die Art von Problemen lösen, wie sie bislang nur für Menschen vorgesehen sind“. Bis heute ist der Begriff jedoch umstritten. Offen ist, was Intelligenz genau umfasst – und inwiefern es dafür eines eigenen Bewusstseins bedarf.
Bei dieser Spielart der künstlichen Intelligenz erzeugt das System aus großen Datenmengen Wissen – indem es etwa anhand von Fotos selbst erlernt, wie eine Katze aussieht. Einige Experten sehen in dieser Mustererkennung jedoch noch kein intelligentes Verhalten.
Für viele Anwendungen, darunter die Bilderkennung, brachten die Methoden des Deep Learning den Durchbruch. Dabei werden die neuronalen Netze des Gehirns mit ihren vielen Knotenpunkten digital nachempfunden.
Kommerzialisiert haben insbesondere amerikanische IT-Konzerne wie Google, Microsoft, IBM oder Amazon KI-Anwendungen. Sie finden sich etwa in der Spracherkennung in Smartphones, selbstfahrenden Autos oder als Chatbots, die mit Kunden auf Shopping-Seiten kommunizieren.
„Im höchsten Risikofall verbieten“
Die Europäische Union sei auf dem Weg, eine Verordnung zur Regulierung zu entwickeln. „Im höchsten Risikofall könnte der Einsatz von KI-Modellen verboten werden“, sagte Esken. „In weniger, aber immer noch riskanten Bereichen könnte eine menschliche Letztentscheidung vorgegeben werden – und natürlich auch die Möglichkeit, Rechtsmittel einzulegen, also dagegen zu klagen, wenn ich eine Entscheidung für ungerechtfertigt halte.“
Die EU-Pläne für den sogenannten AI Act sollen einen weltweit einmaligen Rechtsrahmen dafür schaffen, wie KI-Systeme entwickelt und gegen Missbrauch geimpft werden können. Die Arbeit der Algorithmen soll nachprüfbar sein. Darin soll auch festgelegt werden, welche Entscheidungen nicht von Maschinen getroffen werden dürfen. Ab 2025 könnten die Regeln in der Europäischen Union wirksam werden. Die Vorschläge der EU-Kommission und des Ministerrats für eine staatliche Regulierung künstlicher Intelligenz im AI Act liegen bereits seit Ende 2022 vor.
Die Pläne zur Regulierung stoßen auf wenig Gegenliebe der Unternehmen. So drohte beispielsweise Sam Altman, Mitgründer und Chef des ChatGPT-Anbieters OpenAI, bereits damit, die Firma könnte sich aus Europa zurückziehen.
Aufpassen muss man aus Sicht Eskens, dass Künstliche Intelligenz nicht Diskriminierung aus der Datenlage lernt. „Wenn eine Künstliche Intelligenz beispielsweise Karrierewege von Journalistinnen und Journalisten in den Medienhäusern analysieren würde, käme sie womöglich auf die Idee, nur Männer einzustellen, weil die erfolgreichsten Karrieren bisher von Männern gemacht wurden“, erläuterte sie.
„Wir müssen dafür sorgen, dass Trainingsdaten von solcher Diskriminierung befreit werden oder gleich dafür sorgen, dass das Geschlecht bei der Auswahl keine Rolle spielt.“
Lesen Sie auch: Was kann und was darf künstliche Intelligenz in der Finanzbranche?