AI Act: Wird die KI-Regulierung der EU ein zahnloser Tiger?
Sprachbot ChatGPT von OpenAI: Techkonzerne wollen ihre großen KI-Modelle aus der geplanten EU-Regulierung heraushalten.
Foto: imago imagesAls der Sprachbot ChatGPT vor gut einem Jahr plötzlich im Internet auftauchte, waren selbst KI-Experten überrascht über die erstaunlichen Fähigkeiten der neuartigen künstlichen Intelligenz. Aber auch die Behörden waren überrumpelt: Nirgends auf der Welt gab es Gesetze für die Einführung einer solch mächtigen Software.
Das könnte sich in der EU demnächst ändern: In wenigen Tagen will die Europäische Union den EU AI Act verabschieden – eine Regulierung für künstliche Intelligenz, wie es sie in der Breite bisher fast nirgends auf der Welt gibt. KI in der Medizin, im Bankensektor – das alles soll bald Regeln unterworfen sein, auch die nächste Version von ChatGPT. Seit mehr als vier Jahren ist das Gesetz in Arbeit.
Doch nun ist ein Streit entbrannt, der sogar die Einigung über eine finale Fassung des AI Acts am 6. Dezember gefährden könnte. Es ist ein Zwist, der nicht nur verschiedene EU-Staaten entzweit, sondern auch einen Riss quer durch die Tech-Industrie selbst zieht. Wurde der Zoff über die KI-Regulierung zuerst hinter verschlossenen Türen ausgetragen, machen inzwischen offene Briefe die Runde – und Kontrahenten des Streits giften sich auf Twitter an.
Streit um ChatGPT und Co.
Kern des Clinchs sind sogenannte Foundation-Modelle – sehr große KI-Modelle, die mit riesigen Datenmengen trainiert werden und dann für eine breite Palette von Anwendungen eingesetzt werden können, vom Chatbot im Kundendienst bis zur Sprachsteuerung von Robotern.
Das aktuelle Foundation-Modell hinter ChatGPT etwa ist GPT-4, aber auch Meta, Google und Dutzende Start-ups haben eigene große KI-Modelle entwickelt. Sie zu trainieren, kostet viele Millionen Euro. Aber ihre Entwickler hoffen, damit bald viele Milliarden umzusetzen, das Internet umzukrempeln – und die halbe Wirtschaft gleich mit.
Als im Frühjahr 2021 die Verhandlungen rund um den AI Act begannen, waren die großen KI-Modelle noch nicht auf dem Radar der Politik. Mit ChatGPT hat sich das geändert. Bei Verhandlungen der EU-Kommission, des Ministerrats und des EU-Parlaments am 24. Oktober über das KI-Gesetz sah es danach aus, dass auch Foundation-Modelle künftig Regularien erfüllen sollten.
Lesen Sie auch: Millionen-Deal für Aleph Alpha: So will das Start-up Deutschland voranbringen
In letzter Minute versucht eine Allianz von Regierungen und Techunternehmen das nun noch zu verhindern. Frankreich, Deutschland und Italien plädierten vor einigen Tagen in einem Schreiben dafür, dass Anbieter großer KI-Modelle sich nur selbst regulieren sollten, indem sie einen Verhaltenskodex entwickelten.
So sollten Unternehmen die Zahl der sogenannten Parameter angeben, also die Größe des Modells, sowie Studienergebnisse über möglich erlernte Vorurteile und technische Grenzen der KI – ohne allerdings externer Prüfung unterzogen zu werden.
Killt der AI Act Europas KI-Hoffnungsträger?
Zu den Gegnern einer Regulierung großer Sprachmodelle im AI Act gehört auch das deutsche Start-up Aleph Alpha. „Eine Regelung im AI-Act wäre – basierend auf den Erfahrungen mit der Datenschutzgrundverordnung – eher statisch und nicht so leicht abänderbar“, teilt das Start-up in einer Stellungsnahme mit. Es bedürfe einer „flexibleren und dynamischeren Regulierungsstrategie, die mit der technologischen Entwicklung Schritt halten kann.“
Ähnlich argumentiert das französische KI-Start-up Mistral, das ebenfalls ein Konkurrenzprodukt zu ChatGPT entwickeln will. Ein Mistral-Mitgründer ist der ehemalige französische Technologieminister Cedric O. Sprach er sich als Politiker noch für stärkere Regulierung aus, wettert er nun als Gründer gegen die Pläne Brüssels. „Je nach Form des AI Acts kann er Mistral killen“, sagte er im Interview mit dem „Financial-Times“-Ableger „Sifted“.
EU-Politiker, die sich für eine Regulierung der großen KI-Modelle stark gemacht haben, sehen darin einen Versuch, die Macht großer Techunternehmen zu zementieren. „Die großen amerikanischen Plattformen (haben) alles getan, um uns an der Regulierung zu hindern“, sagte EU-Binnenkommissar Thierry Breton der Tageszeitung „La Tribune“. Es gehe aber darum, das Interesse der Allgemeinheit zu vertreten – und nicht das Geschäftsmodell und die Aktionärsinteressen weniger großer Unternehmen.
Inzwischen haben sich auch zahlreiche Nichtregierungsorganisationen eingeschaltet, etwa das Future of Life Institute aus den USA, das sich für den sicheren Umgang mit KI einsetzt. In einem offenen Brief, unterzeichnet auch von dem renommierten KI-Forscher Yoshua Bengio oder dem KI-Experten Gary Marcus, fordern sie, die Regulierung großer KI-Modelle durchzusetzen.
„Foundation-Modelle unterscheiden sich erheblich von herkömmlicher KI“, heißt es in dem Schreiben. Ihre Allgemeingültigkeit, ihre Entwicklungskosten und ihre Fähigkeit, als ‚Single Point of Failure‘ für Tausende von nachgelagerten Anwendungen zu fungieren, bedeuten, dass sie ein besonderes Risikoprofil aufweisen – ein systemisches, noch nicht vollständig verstandenes Risiko, das im Wesentlichen alle Bereiche der Gesellschaft betrifft.
Unternehmen wie Mistral argumentierten, europäische KI-Unternehmen liefen den US-Vorreitern wie OpenAI ohnehin schon hinterher – zu viel Regulierung könne ihnen nun jede Chance des Aufholens verbauen. Eine Regulierung der Foundation-Modelle bedeute für die Unternehmen unverhältnismäßig hohe Kosten und Haftungsrisiken, heißt es in einem offenen Brief, den die Manager von 150 europäischen Unternehmen unterschrieben haben, von Mistral bis zum Bierkonzern Heineken, der bisher wenig mit KI-Einsatz aufgefallen ist.
Geraten kleine KI-Unternehmen ins Hintertreffen?
Allerdings haben sogar die USA jüngst eine KI-Regulierung eingeführt, die auch die Entwickler großer Sprachmodelle mit einschließt. Sie müssen Behörden bestimmte Informationen darüber bereitstellen, bevor sie sie auf den Markt bringen dürfen. Dass eine europäische Regulierung den Unternehmen generell einen Nachteil gegenüber der US-Konkurrenz bringt, ist damit kein überzeugendes Argument mehr.
Ein anderes Argument der Regulierungsgegner: Foundation-Modelle seien eine Technologie – doch man müsse KI immer erst in der Anwendung regulieren, wo sich ihre konkreten Risiken entwickeln könnten.
KI-Experten widersprechen dem – jüngst in einem offenen Brief an die Bundesregierung, organisiert durch das Zentrum für KI-Risiken und -Auswirkungen (KIRA), einem Think Tank in Berlin. Unterschrieben haben ihn 22 führende KI-Fachleute, darunter Deep-Learning-Pionier Geoffrey Hinton und der Berkeley-KI-Forscher Stuart Russell.
Sie warnen in dem Schreiben: Große KI-Modelle könnten Risiken für die öffentliche Sicherheit bedeuten, etwa durch Cyberattacken, KI-generierte Desinformation oder durch mit KI-Techniken entwickelte Krankheitserreger. „Diese Risiken für die öffentliche Sicherheit sind den Foundation-Modellen inhärent“, heißt es in dem Brief. „Daher sollten sie auf der Ebene des Foundation-Modells behandelt werden.“
Würden diese Risiken dagegen nicht bereits bei den Entwicklern der Modelle kontrolliert, meist große und mächtige Techunternehmen, dann könnten zahlreiche kleinere Unternehmen dadurch schwer benachteiligt werden, befürchtet Mark Brakel, Director of Policy beim Future of Life Institute.
„Wenn Foundation-Modelle von der Regulierung ausgenommen werden“, sagt Brakel, „werden alle Kosten für die Einhaltung der Vorschriften und die Haftung von den Schultern der großen KI-Konzerne auf die Tausenden von nachgeschalteten Nutzern und Mittelständlern verlagert, die sie anpassen und einsetzen wollen.“
Die Zeit für eine Einigung läuft ab
Möglicherweise können sich die streitenden Parteien auf einen Kompromiss einigen. Ein Vorschlag, der kursiert: Eine Regulierung für große KI-Modelle, die erst ab einer bestimmten Menge von Rechenoperationen einsetzt, die für das Training des Modells nötig ist. Bestehende KIs von Mistral und Co. könnten so noch von Gesetzen freigestellt sein – die nächste, mächtigere KI-Generation dann eventuell nicht mehr.
Doch eine solche Ausnahmeregelung dürfte auf Widerstand stoßen. „Hier geht es nicht darum, Ängste zu schüren, sondern sicherzustellen, dass die EU-KI-Regulierung dort greift, wo sie am wichtigsten ist: nämlich bei den großen generativen KI-Modellen“, sagt Holger Hoos, Alexander-von-Humboldt-Professor für KI an der RWTH Aachen. „Ohne Regulierung dieser Art könnte man sich im Prinzip den EU AI Act auch vollständig sparen.“
Viel Zeit für eine Einigung bleibt nicht. Bald laufen die Vorbereitungen für die Europawahl an, einen Abschluss des AI Acts dürften diese unmöglich machen. Dann wäre die KI-Branche zwar frei von Brüsseler Vorgaben. Sie hätte aber auch keine Orientierung, welche Regeln für alle Anbieter gelten – und wie ihre KI-Produkte aussehen müssen, damit nicht künftig doch Strafen oder Klagen drohen.
Lesen Sie auch: OpenAI-Chef Altman wird gefeuert, soll zurückkommen, geht zu Microsoft, kommt doch zurück – und das alles in einer Woche. Wer spielt da mit der Techfirma und ihrer KI?