Regulierung vor Künstlicher Intelligenz „Bei KI müssen wir auch die Horrorszenarien mitbedenken“

Wie gefährlich ist KI für Menschen? Quelle: Getty Images

In einem drastischen Aufruf warnen Experten vor KI wie ChatGPT. Der Aachener Professor Holger Hoos gehört zu den wenigen deutschen Unterzeichnern – und er hat mit Blick auf den deutschen Standort große Sorgen.

  • Teilen per:
  • Teilen per:

WirtschaftsWoche: Herr Hoos, Sie sind Professor für Informatik und warnen gemeinsam mit mehr als hundert Entwicklern, Unternehmern und Wissenschaftlern davor, dass Künstliche Intelligenz (KI) für Menschen so gefährlich werden könnte wie eine Pandemie oder ein Atomkrieg. Ist das nicht zu drastisch? 
Holger Hoos: Sicher ist das eine drastische Warnung, und sicher ist der Vergleich überspitzt, aber das ist angesichts der aktuellen Entwicklung rund um generative KI wie ChatGPT angebracht. So, wie wir uns vor der nächsten Pandemie schützen müssen oder selbst vor einem so unwahrscheinlichen Szenario wie einem Atomangriff, müssen wir uns auch mit den möglichen Gefahren von KI beschäftigen. 

Im Zuge einer Pandemie können Millionen Menschen innerhalb kurzer Zeit sterben, das hat Corona gezeigt, bei einem Atomkrieg würden wohl Hunderttausende Leben auf einen Schlag vernichtet. Mit Verlaub, da wirkt der Vergleich mit den potenziellen Gefahren durch KI doch absurd.  
Das sehe ich anders, die Gefahren durch KI sind, zumindest längerfristig gesehen, sehr real – gerade auch mit Blick auf einen Atomkrieg. Denn schon heute werden Atomwaffen, wie übrigens viele anderen Waffensysteme, mithilfe von Informatik erforscht, produziert und überwacht, künftig womöglich auch gesteuert. Deshalb müssen wir bei KI auch Horrorszenarien mitbedenken. Grundsätzlich gilt: KI ist die Schlüsseltechnologie für die Zukunft, künftig wird ohne sie nichts mehr gehen, keine Beherrschung des Klimawandels und keine Weiterentwicklung von Medikamenten – aber wenn sie aus dem Ruder läuft oder missbraucht wird, kann ganz gewaltiger Schaden entstehen.

Aber die Warnungen vor KI sind nicht neu, mithilfe der Technologie entstehen derweil bereichernde Innovationen und erfolgreiche Geschäftsmodelle, auch Sie haben an der Technologie weiter geforscht. Warum veröffentlichen Sie ausgerechnet jetzt Ihre vehemente Warnung? 
Es gibt viele Technologien, die zu guten Zwecken und zu schlechten Zwecken genutzt werden können, die Kern- und Genomforschung sind dafür gute Beispiele. Aber bei KI erleben wir gerade einen so rasanten Fortschritt, der auch viele Expertinnen und Experten überrascht hat. Wir können deshalb jetzt nicht einfach weitermachen wie bisher nach dem Motto: Jeder macht mit der KI, was er will, und dann schauen wir mal, was passiert. Dazu ist KI zu mächtig und sie durchdringt eben nahezu alle Bereiche unseres Lebens. Deshalb müssen wir uns jetzt mit voller Aufmerksamkeit den Chancen, aber eben auch den Risiken widmen.

Quelle: Presse

Zur Person

Dann werden Sie aber bitte einmal konkreter. Ein Atomkrieg ist hoffentlich eher unwahrscheinlich, welches absehbare Risiko bereitet Ihnen mit Blick auf ChatGPT & Co aktuell so große Sorgen?
Schon heute können mit ChatGPT pseudowissenschaftliche Artikel erstellt werden, die nicht nur auf den ersten, sondern auch auf den dritten Blick hin überzeugend aussehen, aber eben überhaupt nicht auf Fakten beruhen. Auch Bilder, Videos und Audioaufnahmen können mithilfe von KI täuschend echt erstellt werden. Der Manipulation und Desinformation werden damit Tür und Tor geöffnet – das kann fatale Folgen haben: von Wählertäuschung bis zur Anzettelung von Staatskrisen. 

Das heißt, ChatGPT ist jetzt in der Welt, aber die Welt ist nicht auf ChatGPT vorbereitet? 
Ja, aber ChatGPT ist nicht etwa in der Welt, weil verantwortungslose Wissenschaftler, Entwickler und Unternehmen ihr Ding gemacht haben, sondern weil der Fortschritt so viel schneller passiert ist als erwartet. Und damit müssen wir jetzt umgehen. 

Schon seit 2019 wird auf EU-Ebene am sogenannten „AI Act“ gearbeitet, mit dem die Erforschung und Anwendung von KI reguliert werden soll. Ziel ist, eine Art Goldstandard für KI-Regulierung zu setzen. Wie soll das das gelingen, vor allem, wenn die bisherige Planung nun quasi vom Fortschritt überholt wird? 
Der „AI Act“ ist grundsätzlich ein sinnvolles und gutes Vorhaben der EU, und es ist sicher gut, dass der KI-Entwicklungsschub noch vor der Verabschiedung der Regulierung gekommen ist und nicht erst danach. Aber ich fürchte, dass noch immer reichlich Naivität herrscht nach dem Motto: Wir machen jetzt die Regulierung, und der Rest ergibt sich dann von selbst. Denn wenn wir die Technologie hier regulieren, aber die ganze Entwicklung findet dann woanders statt, haben wir in der EU ein großes Problem. 

Und zwar welches Problem? 
Wir drohen bei der Künstlichen Intelligenz zu Zuschauern degradiert zu werden. Schon jetzt sind wir in eine sehr starke wirtschaftliche und technologische Abhängigkeit von einigen wenigen Unternehmen aus den USA geraten. Das kann und darf sich Europa nicht länger leisten, denn wir haben ja bei den Gaslieferungen aus Russland gesehen, welche fatalen Folgen es haben kann, wenn nur ein Land wichtige Ressourcen kontrolliert. Damals ging es nur um Energie – bei der KI ist die gesamte Wirtschaft und Gesellschaft betroffen.  

OpenAI-Gründer und ChatGPT-Macher Sam Altman fordert einerseits Regulierung, warnt aber zugleich, dass er sich aus dem europäischen Markt zurückziehen will, wenn sie zu scharf ausfällt – das hat er zwar revidiert, aber ist das nicht eine wohlfeile Strategie? 
Ich bin sogar überzeugt, dass zumindest ein temporärer Rückzug von OpenAI dem europäischen Markt guttun könnte, weil die Entwicklung hier dann endlich mal vorankommt. Aber gleichzeitig zeigt Altmans Zurückrudern auch, welche Macht der europäische Binnenmarkt hat – entsprechend selbstbewusst sollten wir bei der Regulierung auftreten. Aber klar ist auch: Von Regulierung allein werden wir sicher nicht Weltmarktführer in KI. 

Was also erwarten Sie deshalb auch von der Bundesregierung?
Ich glaube, in der Bundesregierung ist noch gar nicht angekommen, wie dramatisch die Entwicklung gerade ist. Mit Kleckerbeträgen wie fünf Milliarden Euro, die für die deutsche KI-Strategie vorgesehen sind und von denen bisher nur knapp 1,3 Milliarden Euro ausgegeben wurden, werden wir im internationalen KI-Wettbewerb sicher nicht aufholen können, vor allem, wenn die Mittel breit auf viele kleine Projekte verteilt werden.

Mit einer KI-Gießkanne wird Deutschland also kein KI-Champion?
Sicher nicht, die Gießkanne mag helfen, um in der Fläche einen Anschub zu ermögliche, aber um international mithalten zu können, braucht es einen Wumms. Wir werden hier kein zweites Silicon Valley nachbauen können, umso wichtiger ist, einen Forschungschampion aufzubauen, eine Art Cern für KI. Das zieht nicht nur international Top-Talente an, sondern auch die Wirtschaft kann profitieren, weil sie eben nicht mehr nur abhängig ist von der Forschung der amerikanischen Unternehmen, die die Risiken ihrer KI freilich nicht immer offenlegen werden.

ChatGPT: Wie die KI funktioniert und welche Einsatzgebiete es gibt

Allerdings gibt es erst wenige deutsche Unternehmen, die KI tatsächlich auch nutzen. Wie gefährlich ist diese Zurückhaltung mit Blick auf den internationalen Wettbewerb?
Nicht nur für die Wirtschaft gilt: Nur, wer sich jetzt schon mit KI und ChatGPT beschäftigt, wird künftig die Nase vorn haben. Sicher gilt es, sich mit den Risiken zu beschäftigen, aber gleichzeitig dürfen die Chancen nicht verpasst werden. Sonst droht der Abstieg in die dritte Liga.

Was heißt das insbesondere auch für kleine und mittelständische Unternehmen? 
Unternehmen sollten jetzt nicht zugleich blind in die Abhängigkeit der amerikanischen KI-Anbieter begeben. Es mag Fälle geben, wo das gerechtfertigt ist. Aber gerade für kleine und mittelständische Unternehmen braucht es vielleicht nicht immer gleich Google, Microsoft und Co. Ich würde mir wünschen, dass deutsche Unternehmen auch in Europa künftig mehr Auswahl haben – von allein passiert das aber eben nicht.

Sie selbst haben kürzlich mit anderen prominenten KI-Expertinnen und -Experten wie Sam Altman und Elon Musk sogar ein Entwicklungsmoratorium für KI gefordert. Würde so ein Stopp nicht gerade dazu führen, dass beispielsweise chinesischen Forschung aufholen und überholen kann?
Dass die KI-Entwicklung gestoppt wird, ist unrealistisch. Aber mir ging es nicht um eine grundsätzliche Pause, sondern darum, die Weiterentwicklung der allermächtigsten KI-Modelle etwas zu entschleunigen. Gerade damit sich die Fähigkeiten nicht auf einige wenige Unternehmen konzentrieren und Regulierungsansätze noch greifen können.

Werkzeughersteller Russland enteignet Maschinenbauer DMG Mori

Weil die Bundesregierung eine Investitionsgarantie gab, fordert der Konzern jetzt Schadensersatz. Der Vorfall in Russland ist aber nicht das einzige Thema, das am Standort in Bielefeld derzeit für Wirbel sorgt.

Gehalt „Wer pfiffige Ideen hat und hart arbeitet, sollte dafür auch belohnt werden“

In Unternehmen herrscht ein verqueres Leistungsdenken, sagt Interimsmanager Ulvi Aydin. Er fordert, High Performern mehr zu zahlen als den Chefs: „Es gibt Leute, die mehr leisten als andere – das sollte man anerkennen.“

Aktien Fünf gefallene Börsenstars mit der Hoffnung auf ein Comeback

Mehrere frühere Börsenlieblinge sind jetzt günstig zu haben. Ihre Kursschwäche hat Gründe – aber es gibt gute Argumente für eine Erholung. Fünf Turnaround-Ideen für Mutige.

 Weitere Plus-Artikel lesen Sie hier

China dürfte sich aber kaum ausbremsen lassen.
China sollte uns dabei nicht abschrecken. Denn was richtig ist, entscheidet sich doch nicht daran, ob es jemand unterwandern kann, sondern was die Konsequenzen sind, wenn man etwas eben nicht richtig macht – das gilt für die Möglichkeiten des Klonens wie für die Künstliche Intelligenz.

Lesen Sie auch: Warum Jensen Huang als der „neue Steve Jobs“ gepriesen wird

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%