KI-Modelle ChatGPT, wir müssen reden

Wie viele Risiken stecken in der Entwicklung von KIs? Quelle: imago images

In einem offenen Brief fordern KI-Forscher und Unternehmer eine Pause der Entwicklung großer KIs wie GPT-4. Damit stoßen sie eine nötige Debatte an – die Technik schreitet schneller voran, als wir die Risiken verstehen lernen. Ein Kommentar.

  • Teilen per:
  • Teilen per:

Es ist ein Schreiben, das es in sich hat: In einer Online-Petition fordern führende KI-Forscher und Unternehmen die Hersteller von künstlicher Intelligenz zu einer Art freiwilligen Forschungsembargo auf. „Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu unterbrechen.“

GPT-4, das ist ein großes Sprachmodell des US-Unternehmens OpenAI – und die Technik hinter dem Sprachbot ChatGPT, der derzeit wohl meist diskutierten App im Internet. Die künstliche Intelligenz versteht und schreibt Texte, analysiert Bilder – so gut, dass man ihre Kreationen für menschengemacht halten könnte. Viele Experten halten sie für einen Durchbruch – und den Start einer neuen Ära des Internets.  

Die Unterzeichner des Aufrufs halten GPT-4 allerdings für eine Gefahr: „Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten?“, schreiben sie. „Sollten wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“

Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.

Den Anstoß für die Petition hat das Future of Life Institute gegeben, eine NGO in Kalifornien, die sich seit 2014 der Frage existentieller Risiken durch künstliche Intelligenz widmet. Dessen Co-Gründer Max Tegmark hat in seinem Buch „Leben 3.0“ analysiert, wie durch künstliche Intelligenz eine ganz neue Lebensform auf der Erde entstehen könnte: Eine Intelligenz, die ihre Software und Hardware selbst immer weiter verbessern kann und immer mächtiger wird.

ChatGPT: Wie die KI funktioniert und welche Einsatzgebiete es gibt

Auch wenn ChatGPT beachtliche Fähigkeiten hat und man argumentieren könnte, dass sie bereits den Turing-Test bestanden hat, also Menschen überzeugen kann, selbst ein Mensch zu sein – die Gefahr, dass die Software einen eigenen Willen und eigene Ziele entwickelt, ist noch nicht gegeben. Auch wenn Forscher darüber nachdenken, wie sich Maschinen diese Fähigkeiten beibringen ließen. Was eine generelle künstliche Intelligenz ist, wie gefährlich sie sein kann, ob die Menschheit sie je entwickelt – das ist alles offen. 

Die Warnung vor den Risiken von GPT-4 ist trotzdem schon heute berechtigt. Denn KI birgt nicht erst Gefahren, wenn sie so schlau wird wie Albert Einstein. Sie hat heute schon in Nischen übermenschliche Fähigkeiten, die sich missbrauchen lassen. Sie kann Phänomene wie Desinformation, Spam und die Beeinflussung politischer Wahlen auf eine ganz neue technische Stufe heben – durch maßgeschneiderte Propaganda-Texte etwa oder täuschend echt gefälschte Bilder, wie sie etwa in den vergangenen Tagen die angebliche Verhaftung von Donald Trump zeigen.

Lesen Sie auch: Kann ChatGPT die Wirtschaft erklären?

Was tun? KI-Entwickler sollten mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen, fordern die Autoren des Schreibens. Und schlagen vor, hochleistungsfähige KI-Systeme zu überwachen und zu verfolgen, Herkunfts- und Wasserzeichensysteme einzuführen, die dabei helfen, echte von synthetischen Daten zu unterscheiden, die Haftung für durch KI verursachte Schäden zu klären und gut ausgestattete Institutionen einzuführen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen, die KI verursachen werden.

Kaffee und Kram Lässt sich Tchibos Niedergang aufhalten?

75 Jahre nach der Gründung bröckelt die Geschäftsbasis von Tchibo. Konzernpatron Michael Herz stemmt sich gegen den Niedergang des Kaffeehändlers.

Eskalation der Geopolitik China bereitet sich auf künftige Sanktionen des Westens vor

China bereitet sich auf eine Eskalation der geopolitischen Konflikte vor – mit massiven Goldkäufen, neuen Handelsrouten und einer verstärkten Abkehr vom Dollar.

Ab ins Umland Die Stadtflucht erreicht eine neue Stufe

Familien und Ältere verlassen schon länger die Städte, um im Umland eine Immobilie zu erwerben. Doch jetzt greift die Stadtflucht auch auf andere Gruppen über.

 Weitere Plus-Artikel lesen Sie hier

Die Vorschläge sind auf jeden Fall bedenkenswert. Das KI-Rennen zwischen den Silicon-Valley-Größen läuft aktuell deutlich schneller, als die Politik zu reagieren weiß. Sie sollte sich nun dringend mit der Technologie beschäftigen – und Wege finden, ihre Gefahren einzudämmen, ohne die Innovationen von vornherein abzuwürgen.

Lesen Sie auch: Jetzt steuert ChatGPT schon Roboter

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%