WirtschaftsWoche: Herr Hoos, Sie sind Professor für Informatik und warnen gemeinsam mit mehr als hundert Entwicklern, Unternehmern und Wissenschaftlern davor, dass Künstliche Intelligenz (KI) für Menschen so gefährlich werden könnte wie eine Pandemie oder ein Atomkrieg. Ist das nicht zu drastisch?
Holger Hoos: Sicher ist das eine drastische Warnung, und sicher ist der Vergleich überspitzt, aber das ist angesichts der aktuellen Entwicklung rund um generative KI wie ChatGPT angebracht. So, wie wir uns vor der nächsten Pandemie schützen müssen oder selbst vor einem so unwahrscheinlichen Szenario wie einem Atomangriff, müssen wir uns auch mit den möglichen Gefahren von KI beschäftigen.
Im Zuge einer Pandemie können Millionen Menschen innerhalb kurzer Zeit sterben, das hat Corona gezeigt, bei einem Atomkrieg würden wohl Hunderttausende Leben auf einen Schlag vernichtet. Mit Verlaub, da wirkt der Vergleich mit den potenziellen Gefahren durch KI doch absurd.
Das sehe ich anders, die Gefahren durch KI sind, zumindest längerfristig gesehen, sehr real – gerade auch mit Blick auf einen Atomkrieg. Denn schon heute werden Atomwaffen, wie übrigens viele anderen Waffensysteme, mithilfe von Informatik erforscht, produziert und überwacht, künftig womöglich auch gesteuert. Deshalb müssen wir bei KI auch Horrorszenarien mitbedenken. Grundsätzlich gilt: KI ist die Schlüsseltechnologie für die Zukunft, künftig wird ohne sie nichts mehr gehen, keine Beherrschung des Klimawandels und keine Weiterentwicklung von Medikamenten – aber wenn sie aus dem Ruder läuft oder missbraucht wird, kann ganz gewaltiger Schaden entstehen.
Aber die Warnungen vor KI sind nicht neu, mithilfe der Technologie entstehen derweil bereichernde Innovationen und erfolgreiche Geschäftsmodelle, auch Sie haben an der Technologie weiter geforscht. Warum veröffentlichen Sie ausgerechnet jetzt Ihre vehemente Warnung?
Es gibt viele Technologien, die zu guten Zwecken und zu schlechten Zwecken genutzt werden können, die Kern- und Genomforschung sind dafür gute Beispiele. Aber bei KI erleben wir gerade einen so rasanten Fortschritt, der auch viele Expertinnen und Experten überrascht hat. Wir können deshalb jetzt nicht einfach weitermachen wie bisher nach dem Motto: Jeder macht mit der KI, was er will, und dann schauen wir mal, was passiert. Dazu ist KI zu mächtig und sie durchdringt eben nahezu alle Bereiche unseres Lebens. Deshalb müssen wir uns jetzt mit voller Aufmerksamkeit den Chancen, aber eben auch den Risiken widmen.
Zur Person
Holger H. Hoos ist Alexander-von-Humboldt-Professor für Künstliche Intelligenz an der RWTH Aachen (Deutschland), Professor für Maschinelles Lernen an der Universiteit Leiden (Niederlande) und außerordentlicher Professor für Informatik an der University of British Columbia (Kanada).
Er ist Fellow der Association of Computing Machinery (ACM), der Association for the Advancement of Artificial Intelligence (AAAI) und der European AI Association (EurAI), ehemaliger Präsident der Canadian Association for Artificial Intelligence (CAIAC), ehemaliger Chefredakteur des Journal of Artificial Intelligence Research (JAIR) und Vorstandsvorsitzender von CLAIRE, Organisation zur Stärkung der Spitzenleistungen in der KI Forschung und Innovation in Europa.
Prof. Hoos ist bekannt für seine Arbeiten über maschinelles Lernen und Optimierungsmethoden für den automatisierten Entwurf von Hochleistungsalgorithmen und stochastischer lokaler Suche, er hat das Paradigma der Programmierung durch Optimierung (PbO) entwickelt und verfolgt es mit Nachdruck; er ist auch einer der Begründer des Konzepts des automatisierten maschinellen Lernens (AutoML). Prof. Hoos interessiert sich besonders für Forschung und Arbeit an den Grenzen zwischen Informatik und anderen Disziplinen, und ein Großteil seiner Arbeit ist von praktischen Anwendungen inspiriert.
Dann werden Sie aber bitte einmal konkreter. Ein Atomkrieg ist hoffentlich eher unwahrscheinlich, welches absehbare Risiko bereitet Ihnen mit Blick auf ChatGPT & Co aktuell so große Sorgen?
Schon heute können mit ChatGPT pseudowissenschaftliche Artikel erstellt werden, die nicht nur auf den ersten, sondern auch auf den dritten Blick hin überzeugend aussehen, aber eben überhaupt nicht auf Fakten beruhen. Auch Bilder, Videos und Audioaufnahmen können mithilfe von KI täuschend echt erstellt werden. Der Manipulation und Desinformation werden damit Tür und Tor geöffnet – das kann fatale Folgen haben: von Wählertäuschung bis zur Anzettelung von Staatskrisen.
Das heißt, ChatGPT ist jetzt in der Welt, aber die Welt ist nicht auf ChatGPT vorbereitet?
Ja, aber ChatGPT ist nicht etwa in der Welt, weil verantwortungslose Wissenschaftler, Entwickler und Unternehmen ihr Ding gemacht haben, sondern weil der Fortschritt so viel schneller passiert ist als erwartet. Und damit müssen wir jetzt umgehen.
Schon seit 2019 wird auf EU-Ebene am sogenannten „AI Act“ gearbeitet, mit dem die Erforschung und Anwendung von KI reguliert werden soll. Ziel ist, eine Art Goldstandard für KI-Regulierung zu setzen. Wie soll das das gelingen, vor allem, wenn die bisherige Planung nun quasi vom Fortschritt überholt wird?
Der „AI Act“ ist grundsätzlich ein sinnvolles und gutes Vorhaben der EU, und es ist sicher gut, dass der KI-Entwicklungsschub noch vor der Verabschiedung der Regulierung gekommen ist und nicht erst danach. Aber ich fürchte, dass noch immer reichlich Naivität herrscht nach dem Motto: Wir machen jetzt die Regulierung, und der Rest ergibt sich dann von selbst. Denn wenn wir die Technologie hier regulieren, aber die ganze Entwicklung findet dann woanders statt, haben wir in der EU ein großes Problem.
Und zwar welches Problem?
Wir drohen bei der Künstlichen Intelligenz zu Zuschauern degradiert zu werden. Schon jetzt sind wir in eine sehr starke wirtschaftliche und technologische Abhängigkeit von einigen wenigen Unternehmen aus den USA geraten. Das kann und darf sich Europa nicht länger leisten, denn wir haben ja bei den Gaslieferungen aus Russland gesehen, welche fatalen Folgen es haben kann, wenn nur ein Land wichtige Ressourcen kontrolliert. Damals ging es nur um Energie – bei der KI ist die gesamte Wirtschaft und Gesellschaft betroffen.
OpenAI-Gründer und ChatGPT-Macher Sam Altman fordert einerseits Regulierung, warnt aber zugleich, dass er sich aus dem europäischen Markt zurückziehen will, wenn sie zu scharf ausfällt – das hat er zwar revidiert, aber ist das nicht eine wohlfeile Strategie?
Ich bin sogar überzeugt, dass zumindest ein temporärer Rückzug von OpenAI dem europäischen Markt guttun könnte, weil die Entwicklung hier dann endlich mal vorankommt. Aber gleichzeitig zeigt Altmans Zurückrudern auch, welche Macht der europäische Binnenmarkt hat – entsprechend selbstbewusst sollten wir bei der Regulierung auftreten. Aber klar ist auch: Von Regulierung allein werden wir sicher nicht Weltmarktführer in KI.
Was also erwarten Sie deshalb auch von der Bundesregierung?
Ich glaube, in der Bundesregierung ist noch gar nicht angekommen, wie dramatisch die Entwicklung gerade ist. Mit Kleckerbeträgen wie fünf Milliarden Euro, die für die deutsche KI-Strategie vorgesehen sind und von denen bisher nur knapp 1,3 Milliarden Euro ausgegeben wurden, werden wir im internationalen KI-Wettbewerb sicher nicht aufholen können, vor allem, wenn die Mittel breit auf viele kleine Projekte verteilt werden.
Mit einer KI-Gießkanne wird Deutschland also kein KI-Champion?
Sicher nicht, die Gießkanne mag helfen, um in der Fläche einen Anschub zu ermögliche, aber um international mithalten zu können, braucht es einen Wumms. Wir werden hier kein zweites Silicon Valley nachbauen können, umso wichtiger ist, einen Forschungschampion aufzubauen, eine Art Cern für KI. Das zieht nicht nur international Top-Talente an, sondern auch die Wirtschaft kann profitieren, weil sie eben nicht mehr nur abhängig ist von der Forschung der amerikanischen Unternehmen, die die Risiken ihrer KI freilich nicht immer offenlegen werden.
ChatGPT: Wie die KI funktioniert und welche Einsatzgebiete es gibt
OpenAI wurde 2015 als gemeinnützige Forschungs- und Entwicklungsorganisation vom Tesla- und Twitter-Chef Elon Musk sowie dem Technologie-Investor Sam Altman gegründet. Zu den Investoren zählt außerdem der PayPal-Mitgründer Peter Thiel. Im Jahr 2019 wurde ein gewinnorientierter Ableger gegründet, um externe Investitionen einzusammeln. Auch der Software-Konzern Microsoft sicherte sich Anteile an dem Unternehmen, dass bei der jüngsten Finanzierungsrunde Insidern zufolge mit 20 Milliarden Dollar bewertet wurde.
Musk verließ den Verwaltungsrat von OpenAI 2018, lobte ChatGPT auf Twitter allerdings als "erschreckend gut". Allerdings kündigte er später an, den Zugriff von OpenAI auf die Datenbank des Kurznachrichtendienstes vorerst zu sperren. Er habe gerade erst erfahren, dass OpenAI die Daten nutze, um die KI zu trainieren.
Mögliche Anwendungsbereiche für das Programm sind Digital-Marketing oder die Beantwortung von Kunden-Anfragen. Einige Nutzer habe ChatGPT sogar dafür genutzt, Software-Code auf Fehler zu prüfen.
OpenAI zufolge kann ChatGPT einen menschlichen Dialog simulieren, Nachfragen beantworten, Fehler eingestehen, falsche Annahmen revidieren und unangemessene Anfragen zurückweisen. Trainiert werde die Künstliche Intelligenz nach der Methode "Reinforcement Learning from Human Feedback (RLHF)". Dabei bewerten Menschen Schlussfolgerungen, die die Software zieht, um künftige Ergebnisse zu verbessern.
ChatGPT versucht Fragen von Nutzern zu verstehen und in einer schriftlichen Konversation so zu beantworten, wie es ein Mensch täte.
OpenAI hat eingeräumt, dass ChatGPT die Tendenz hat, „plausibel klingende, aber falsche oder sinnlose Antworten" zu liefern. Die Behebung dieses Problems sei schwierig. Außerdem können durch KI Vorurteile zu ethnischer Zugehörigkeit, Geschlecht oder Kultur weiterverbreitet werden. Auch Google und Amazon hatten mit ethisch fragwürdigen Entscheidungen ihrer jeweiligen KI-Projekte zu kämpfen. Bei anderen Unternehmen mussten Menschen eingreifen, um ein durch die Software verursachtes Chaos einzudämmen.
Allerdings gibt es erst wenige deutsche Unternehmen, die KI tatsächlich auch nutzen. Wie gefährlich ist diese Zurückhaltung mit Blick auf den internationalen Wettbewerb?
Nicht nur für die Wirtschaft gilt: Nur, wer sich jetzt schon mit KI und ChatGPT beschäftigt, wird künftig die Nase vorn haben. Sicher gilt es, sich mit den Risiken zu beschäftigen, aber gleichzeitig dürfen die Chancen nicht verpasst werden. Sonst droht der Abstieg in die dritte Liga.
Was heißt das insbesondere auch für kleine und mittelständische Unternehmen?
Unternehmen sollten jetzt nicht zugleich blind in die Abhängigkeit der amerikanischen KI-Anbieter begeben. Es mag Fälle geben, wo das gerechtfertigt ist. Aber gerade für kleine und mittelständische Unternehmen braucht es vielleicht nicht immer gleich Google, Microsoft und Co. Ich würde mir wünschen, dass deutsche Unternehmen auch in Europa künftig mehr Auswahl haben – von allein passiert das aber eben nicht.
Sie selbst haben kürzlich mit anderen prominenten KI-Expertinnen und -Experten wie Sam Altman und Elon Musk sogar ein Entwicklungsmoratorium für KI gefordert. Würde so ein Stopp nicht gerade dazu führen, dass beispielsweise chinesischen Forschung aufholen und überholen kann?
Dass die KI-Entwicklung gestoppt wird, ist unrealistisch. Aber mir ging es nicht um eine grundsätzliche Pause, sondern darum, die Weiterentwicklung der allermächtigsten KI-Modelle etwas zu entschleunigen. Gerade damit sich die Fähigkeiten nicht auf einige wenige Unternehmen konzentrieren und Regulierungsansätze noch greifen können.
China dürfte sich aber kaum ausbremsen lassen.
China sollte uns dabei nicht abschrecken. Denn was richtig ist, entscheidet sich doch nicht daran, ob es jemand unterwandern kann, sondern was die Konsequenzen sind, wenn man etwas eben nicht richtig macht – das gilt für die Möglichkeiten des Klonens wie für die Künstliche Intelligenz.
Lesen Sie auch: Warum Jensen Huang als der „neue Steve Jobs“ gepriesen wird