Tauchsieder
Experten warnen vor einem „Auslöschungsrisiko“ der Menschheit durch generative KI. Quelle: Getty Images

Keine Angst vor KI!

Ein Gespenst geht um in Deutschland und wir lassen es lustvoll in unseren Köpfen herumspuken: Künstliche Intelligenz! Doch gruseln sollten wir uns lieber vor der Sprache, mit der wir KI-Risiken beschreiben. Eine Kolumne.

  • Teilen per:
  • Teilen per:

Experten und Laien haben inzwischen fast alles gesagt, was es zu sagen gibt über ChatGPT, Google Bard und Microsoft Bing, die drei großen KI-Chatbots, die in wenigen Sekunden Nachrichten zusammenfassen, Drehbücher schreiben, Musik komponieren, Websites gestalten, Musterdepots verwalten, Prüfungsaufgaben lösen, Hausaufgaben erledigen oder Bildgeschichten erfinden können: streng faktenorientiert oder fantasiebereichert, auf dem Niveau eines Grundschülers oder einer Hochschulprofessorin.

Man ahnt die eminenten Folgen, die mit diesen Technologien einhergehen, für den Bildungs(be)trieb, den Arbeitsmarkt und das Urheberrecht, aber auch für „die Öffentlichkeit“, „die Gesellschaft“ und „die Menschheit“.

Es geht ja nicht nur um einen zweiten Triumphzug des Fordismus, diesmal im Büro, also um automatisierte Datenrecherchen in Kanzleien, die maschinelle Formularbearbeitung in Verwaltungen oder das computergenerierte Verfassen von Fließbandtexten in Redaktionen.

Es geht auch nicht nur darum, in welche (verzerrende) Datenrückspiegel wir künftig gucken werden – also mit welchen Manieren, Meinungen, Sichtweisen die Algorithmen ausgestattet, trainiert und konditioniert werden (dürfen), bevor sie dann ihrerseits unsere Sicht auf die Welt prägen – was das Risiko von Selbstbestätigungsschleifen und kognitiver Ermüdung, kurz: evolutionärer Selbstbehinderung, erhöht.

Und es geht auch nicht nur darum, dass wir es sehr wahrscheinlich mit einer Multiplikation von frisierter Information, von Fake News, Unterstellungen, Verschwörungen zu tun bekommen: Die sozialen Medien haben den Menschen das Feld der Desinformation auf der Seite der Distribution eröffnet; die generative KI eröffnet es ihnen aufseiten der Produktion.

Sondern es geht natürlich auch ums Große und Ganze. Um den Prometheus-Mythos, die Frankenstein-Frage und Goethes Zauberlehrlingslehrstück. Um die Matrix-Dystopie und das I-Robot-Problem.

Was, wenn die Maschinen über uns Menschen hinauswachsen? Wenn sie sich dem Kommando ihrer Lehrmeister entziehen, um das Kommando zu übernehmen – und sei es nur im Dienste des menschlichen Perfektibilitätsstrebens und Vervollkommnungswillens?

Die Maschinen müssten dafür namentlich den westlichen Wissenschaftsmenschen nur beim Wort nehmen und das humanistische, aufklärerische Rationalitätsprojekt noch ein klein wenig weiterdenken: Wir befreien Euch von all Euren Makeln und Lässlichkeiten, Störgefühlen und Mitmenschlichkeiten – im Namen des Fortschritts, des Aufwärts und der heiligen Vernunft!

Lesen Sie auch: Tauchsieder – Das Gift der asozialen Medien

Noch ist es nicht so weit. Aber glaubt man den KI-Programmierern, so werden sie die Geister, die sie riefen, schon heute nicht mehr los. Im Gegenteil. Im Silicon Valley sehnen sich die Zauberlehrlinge neuerdings politische Meister herbei, offenbar ist die Regulierungsnot groß.

Die „Solutionisten“ verstehen sich plötzlich nicht mehr als wichtigsten Teil der Lösung, sondern als Wurzel aller Menschheitsprobleme. Sie verstehen ihre Maschinen nicht mehr, können die „Denk“- und Lernprozesse ihrer Modelle nicht mehr zurückverfolgen. Hilfe, Hilfe. Alarm, Alarm.

Bereits am 22. März forderten 1000 KI-Manager, Forscher und Wirtschaftswissenschaftler, darunter Tesla-Chef und Open-AI-Mitgründer Elon Musk sowie Apple-Mitgründer Steve Wozniak, in einem offenen Brief eine Entwicklungspause für neue KI-Modelle: Ohne ein sechsmonatiges Moratorium könne man möglicherweise nicht mehr verhindern, dass der technologische Fortschritt sich der humanen Kontrolle entzieht. Es stehe nichts weniger auf dem Spiel als „die Zukunft des Lebens“.

Und vor wenigen Tagen warnte Sam Altman, als Open-AI-Vorstandschef verantwortlich für das populäre ChatGPT-Sprachmodell, an der Spitze einer langen Liste von Wissenschaftlern, Managern und Politikern in drastischen Worten vor seinem eigenen Produkt: Generative KI berge eine „Auslöschungsrisiko“ für die Menschheit, ganz so, wie Pandemien und Atomkriege es tun – und das Ziel ihrer Einhegung müsse jetzt bitte schnellschnell „globale Priorität“ genießen.

Müssen wir es also jetzt mit der Angst zu tun bekommen? Auslöschungsrisiko, „risk of extinction“ – das klingt immerhin fürchterlich endzeitlich, nach Johannes, Apokalypse, Armageddon.

Nun – wirklich zum Gruseln sind fürs Erste die rhetorische Schludrigkeit und die windschiefen Sprachbilder in den meisten Beschreibungen der technologischen Risiken. Viele Beobachter in Deutschland verwenden beispielsweise die Begriffe „Gefahren“ und „Risiken“ synonym – und sie befördern damit „Ängste“, die man als „Sorgen“ politisch zu adressieren hätte. So kommen wir dem KI-Problem schon gedanklich nicht bei.

Lassen wir uns also von Niklas Luhmann helfen, der streng unterscheidet zwischen „Gefahr“ und „Risiko“. Demnach kann KI per Definition nicht gefährlich sein, wohl aber hochriskant. Einer „Gefahr“ ist der Mensch laut Luhmann schicksalhaft ausgesetzt, potenziell verhängnisvoll – zum Beispiel einem unvorhersehbaren Naturereignis. Ein Tsunami ist gefährlich, ein Erdbeben, eine Stromschnelle, ein Gewitter – und wir fürchten diese Gefahren, weil sie unserer Verfügungsgewalt entzogen sind.
Deshalb ist auch nicht Gefahrlosigkeit das Antonym einer Gefahr (weil wir auch auf Meeresstille und Sonnenschein keinen Einfluss nehmen können) – sondern „Risiko“. Denn ein Risiko gehen wir Menschen ganz bewusst ein – weil wir es abschätzen, veranschlagen, kalkulieren.

Zugleich wissen wir spätestens seit Ulrich Beck, dass die gleichzeitige Zunahme von „Sicherheit“ und „Risiko“ die technologische Moderne kennzeichnen: Der Mensch regelt seit dem 18. Jahrhundert zunehmend viele „Gefahren“ ab (etwa die, vom Blitz getroffen zu werden) und schaltet unendlich viele „Risiken“ dazu (etwa die, sich mit 900 km/h in einem Flugzeug von A nach B zu bewegen), die er vorbehaltlich eines „Restrisikos“ zu beherrschen meint.




In diesem Sinne bedeutet jeder „zivilisatorischer Fortschritt“ niemals nur technologische Innovation, sondern immer zugleich ihre Folgeabschätzung. Auf das Ineinander von Neugestaltung und organisiertem Einspruch kommt’s an. Auf das Risiko – und seine Beherrschung. Nur bei Idioten kommen „Bedenken“ erst „second“.

Insofern ist der „AI Act“, den die Europäische Union gerade vorbereitet, der Versuch einer Identifizierung, Klassifizierung und Beherrschung von KI-Risiken, unbedingt wertvoll – nicht zuletzt, weil er annonciert, dass wir die „Risiken“ und „Sorgen“ in den Griff bekommen können – nicht „Gefahren“ und „Ängsten“ ausgeliefert sind.

Und allein insofern ist der (im Übrigen völlig abwegige) Vergleich mit der Atombombe statthaft. Erstens wird sich die Proliferation von KI, anders als im Fall der Atombombe, nicht verhindern lassen. Zweitens liegt ein Kardinalrisiko der KI, ganz im Gegensatz zur Atombombe, in der Privatisierung ihrer Macht. Und drittens unterscheidet sich die Hypothese der physischen „extinction“ der Menschheit durch den Atomtod in puncto Zerstörungspotenzial, Schmerz, Leid und Plötzlichkeit grundlegend von einem Szenario, in dem der aufgeklärte Mensch sich im Wege seiner Hervorbringungen sukzessiv (und vielleicht sogar fröhlich!) selbst das Licht ausbläst.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%