Es ist ein Schreiben, das es in sich hat: In einer Online-Petition fordern führende KI-Forscher und Unternehmen die Hersteller von künstlicher Intelligenz zu einer Art freiwilligen Forschungsembargo auf. „Wir fordern alle KI-Labore auf, das Training von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort für mindestens 6 Monate zu unterbrechen.“
GPT-4, das ist ein großes Sprachmodell des US-Unternehmens OpenAI – und die Technik hinter dem Sprachbot ChatGPT, der derzeit wohl meist diskutierten App im Internet. Die künstliche Intelligenz versteht und schreibt Texte, analysiert Bilder – so gut, dass man ihre Kreationen für menschengemacht halten könnte. Viele Experten halten sie für einen Durchbruch – und den Start einer neuen Ära des Internets.
Die Unterzeichner des Aufrufs halten GPT-4 allerdings für eine Gefahr: „Sollen wir zulassen, dass Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten?“, schreiben sie. „Sollten wir alle Jobs automatisieren, auch die erfüllenden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen, überlisten, überflüssig machen und ersetzen könnten? Sollen wir den Verlust der Kontrolle über unsere Zivilisation riskieren?“
Es sind keine Aluhutträger oder Ludditen, die diese Fragen nun stellen – sondern führende Unternehmer wie Apple-Mitgründer Steve Wozniak, Skype-Mitgründer Jaan Tallinn und Tesla-Chef Elon Musk, der OpenAI selbst gegründet hat und dann ausgestiegen ist. Außerdem sind unter den mehr als 1000 Unterzeichnern Stuart Russell, Autor eines Standardwerks über KI und jahrzehntelang führender Forscher auf dem Feld, sowie Yoshua Bengio, bekannter KI-Forscher an der Universität Montréal und Gary Marcus, KI-Forscher an der New York University.
Den Anstoß für die Petition hat das Future of Life Institute gegeben, eine NGO in Kalifornien, die sich seit 2014 der Frage existentieller Risiken durch künstliche Intelligenz widmet. Dessen Co-Gründer Max Tegmark hat in seinem Buch „Leben 3.0“ analysiert, wie durch künstliche Intelligenz eine ganz neue Lebensform auf der Erde entstehen könnte: Eine Intelligenz, die ihre Software und Hardware selbst immer weiter verbessern kann und immer mächtiger wird.
ChatGPT: Wie die KI funktioniert und welche Einsatzgebiete es gibt
OpenAI wurde 2015 als gemeinnützige Forschungs- und Entwicklungsorganisation vom Tesla- und Twitter-Chef Elon Musk sowie dem Technologie-Investor Sam Altman gegründet. Zu den Investoren zählt außerdem der PayPal-Mitgründer Peter Thiel. Im Jahr 2019 wurde ein gewinnorientierter Ableger gegründet, um externe Investitionen einzusammeln. Auch der Software-Konzern Microsoft sicherte sich Anteile an dem Unternehmen, dass bei der jüngsten Finanzierungsrunde Insidern zufolge mit 20 Milliarden Dollar bewertet wurde.
Musk verließ den Verwaltungsrat von OpenAI 2018, lobte ChatGPT auf Twitter allerdings als "erschreckend gut". Allerdings kündigte er später an, den Zugriff von OpenAI auf die Datenbank des Kurznachrichtendienstes vorerst zu sperren. Er habe gerade erst erfahren, dass OpenAI die Daten nutze, um die KI zu trainieren.
Mögliche Anwendungsbereiche für das Programm sind Digital-Marketing oder die Beantwortung von Kunden-Anfragen. Einige Nutzer habe ChatGPT sogar dafür genutzt, Software-Code auf Fehler zu prüfen.
OpenAI zufolge kann ChatGPT einen menschlichen Dialog simulieren, Nachfragen beantworten, Fehler eingestehen, falsche Annahmen revidieren und unangemessene Anfragen zurückweisen. Trainiert werde die Künstliche Intelligenz nach der Methode "Reinforcement Learning from Human Feedback (RLHF)". Dabei bewerten Menschen Schlussfolgerungen, die die Software zieht, um künftige Ergebnisse zu verbessern.
ChatGPT versucht Fragen von Nutzern zu verstehen und in einer schriftlichen Konversation so zu beantworten, wie es ein Mensch täte.
OpenAI hat eingeräumt, dass ChatGPT die Tendenz hat, „plausibel klingende, aber falsche oder sinnlose Antworten" zu liefern. Die Behebung dieses Problems sei schwierig. Außerdem können durch KI Vorurteile zu ethnischer Zugehörigkeit, Geschlecht oder Kultur weiterverbreitet werden. Auch Google und Amazon hatten mit ethisch fragwürdigen Entscheidungen ihrer jeweiligen KI-Projekte zu kämpfen. Bei anderen Unternehmen mussten Menschen eingreifen, um ein durch die Software verursachtes Chaos einzudämmen.
Auch wenn ChatGPT beachtliche Fähigkeiten hat und man argumentieren könnte, dass sie bereits den Turing-Test bestanden hat, also Menschen überzeugen kann, selbst ein Mensch zu sein – die Gefahr, dass die Software einen eigenen Willen und eigene Ziele entwickelt, ist noch nicht gegeben. Auch wenn Forscher darüber nachdenken, wie sich Maschinen diese Fähigkeiten beibringen ließen. Was eine generelle künstliche Intelligenz ist, wie gefährlich sie sein kann, ob die Menschheit sie je entwickelt – das ist alles offen.
Die Warnung vor den Risiken von GPT-4 ist trotzdem schon heute berechtigt. Denn KI birgt nicht erst Gefahren, wenn sie so schlau wird wie Albert Einstein. Sie hat heute schon in Nischen übermenschliche Fähigkeiten, die sich missbrauchen lassen. Sie kann Phänomene wie Desinformation, Spam und die Beeinflussung politischer Wahlen auf eine ganz neue technische Stufe heben – durch maßgeschneiderte Propaganda-Texte etwa oder täuschend echt gefälschte Bilder, wie sie etwa in den vergangenen Tagen die angebliche Verhaftung von Donald Trump zeigen.
Lesen Sie auch: Kann ChatGPT die Wirtschaft erklären?
Was tun? KI-Entwickler sollten mit den politischen Entscheidungsträgern zusammenarbeiten, um die Entwicklung robuster KI-Governance-Systeme drastisch zu beschleunigen, fordern die Autoren des Schreibens. Und schlagen vor, hochleistungsfähige KI-Systeme zu überwachen und zu verfolgen, Herkunfts- und Wasserzeichensysteme einzuführen, die dabei helfen, echte von synthetischen Daten zu unterscheiden, die Haftung für durch KI verursachte Schäden zu klären und gut ausgestattete Institutionen einzuführen zur Bewältigung der dramatischen wirtschaftlichen und politischen Störungen, die KI verursachen werden.
Die Vorschläge sind auf jeden Fall bedenkenswert. Das KI-Rennen zwischen den Silicon-Valley-Größen läuft aktuell deutlich schneller, als die Politik zu reagieren weiß. Sie sollte sich nun dringend mit der Technologie beschäftigen – und Wege finden, ihre Gefahren einzudämmen, ohne die Innovationen von vornherein abzuwürgen.
Lesen Sie auch: Jetzt steuert ChatGPT schon Roboter