Tauchsieder: Keine Angst vor KI!
Experten warnen vor einem „Auslöschungsrisiko“ der Menschheit durch generative KI.
Foto: Getty ImagesExperten und Laien haben inzwischen fast alles gesagt, was es zu sagen gibt über ChatGPT, Google Bard und Microsoft Bing, die drei großen KI-Chatbots, die in wenigen Sekunden Nachrichten zusammenfassen, Drehbücher schreiben, Musik komponieren, Websites gestalten, Musterdepots verwalten, Prüfungsaufgaben lösen, Hausaufgaben erledigen oder Bildgeschichten erfinden können: streng faktenorientiert oder fantasiebereichert, auf dem Niveau eines Grundschülers oder einer Hochschulprofessorin.
Man ahnt die eminenten Folgen, die mit diesen Technologien einhergehen, für den Bildungs(be)trieb, den Arbeitsmarkt und das Urheberrecht, aber auch für „die Öffentlichkeit“, „die Gesellschaft“ und „die Menschheit“.
Es geht ja nicht nur um einen zweiten Triumphzug des Fordismus, diesmal im Büro, also um automatisierte Datenrecherchen in Kanzleien, die maschinelle Formularbearbeitung in Verwaltungen oder das computergenerierte Verfassen von Fließbandtexten in Redaktionen.
Es geht auch nicht nur darum, in welche (verzerrende) Datenrückspiegel wir künftig gucken werden – also mit welchen Manieren, Meinungen, Sichtweisen die Algorithmen ausgestattet, trainiert und konditioniert werden (dürfen), bevor sie dann ihrerseits unsere Sicht auf die Welt prägen – was das Risiko von Selbstbestätigungsschleifen und kognitiver Ermüdung, kurz: evolutionärer Selbstbehinderung, erhöht.
Und es geht auch nicht nur darum, dass wir es sehr wahrscheinlich mit einer Multiplikation von frisierter Information, von Fake News, Unterstellungen, Verschwörungen zu tun bekommen: Die sozialen Medien haben den Menschen das Feld der Desinformation auf der Seite der Distribution eröffnet; die generative KI eröffnet es ihnen aufseiten der Produktion.
Sondern es geht natürlich auch ums Große und Ganze. Um den Prometheus-Mythos, die Frankenstein-Frage und Goethes Zauberlehrlingslehrstück. Um die Matrix-Dystopie und das I-Robot-Problem.
Was, wenn die Maschinen über uns Menschen hinauswachsen? Wenn sie sich dem Kommando ihrer Lehrmeister entziehen, um das Kommando zu übernehmen – und sei es nur im Dienste des menschlichen Perfektibilitätsstrebens und Vervollkommnungswillens?
Die Maschinen müssten dafür namentlich den westlichen Wissenschaftsmenschen nur beim Wort nehmen und das humanistische, aufklärerische Rationalitätsprojekt noch ein klein wenig weiterdenken: Wir befreien Euch von all Euren Makeln und Lässlichkeiten, Störgefühlen und Mitmenschlichkeiten – im Namen des Fortschritts, des Aufwärts und der heiligen Vernunft!
Lesen Sie auch: Tauchsieder – Das Gift der asozialen Medien
Noch ist es nicht so weit. Aber glaubt man den KI-Programmierern, so werden sie die Geister, die sie riefen, schon heute nicht mehr los. Im Gegenteil. Im Silicon Valley sehnen sich die Zauberlehrlinge neuerdings politische Meister herbei, offenbar ist die Regulierungsnot groß.
Die „Solutionisten“ verstehen sich plötzlich nicht mehr als wichtigsten Teil der Lösung, sondern als Wurzel aller Menschheitsprobleme. Sie verstehen ihre Maschinen nicht mehr, können die „Denk“- und Lernprozesse ihrer Modelle nicht mehr zurückverfolgen. Hilfe, Hilfe. Alarm, Alarm.
Bereits am 22. März forderten 1000 KI-Manager, Forscher und Wirtschaftswissenschaftler, darunter Tesla-Chef und Open-AI-Mitgründer Elon Musk sowie Apple-Mitgründer Steve Wozniak, in einem offenen Brief eine Entwicklungspause für neue KI-Modelle: Ohne ein sechsmonatiges Moratorium könne man möglicherweise nicht mehr verhindern, dass der technologische Fortschritt sich der humanen Kontrolle entzieht. Es stehe nichts weniger auf dem Spiel als „die Zukunft des Lebens“.
Und vor wenigen Tagen warnte Sam Altman, als Open-AI-Vorstandschef verantwortlich für das populäre ChatGPT-Sprachmodell, an der Spitze einer langen Liste von Wissenschaftlern, Managern und Politikern in drastischen Worten vor seinem eigenen Produkt: Generative KI berge eine „Auslöschungsrisiko“ für die Menschheit, ganz so, wie Pandemien und Atomkriege es tun – und das Ziel ihrer Einhegung müsse jetzt bitte schnellschnell „globale Priorität“ genießen.
Müssen wir es also jetzt mit der Angst zu tun bekommen? Auslöschungsrisiko, „risk of extinction“ – das klingt immerhin fürchterlich endzeitlich, nach Johannes, Apokalypse, Armageddon.
Nun – wirklich zum Gruseln sind fürs Erste die rhetorische Schludrigkeit und die windschiefen Sprachbilder in den meisten Beschreibungen der technologischen Risiken. Viele Beobachter in Deutschland verwenden beispielsweise die Begriffe „Gefahren“ und „Risiken“ synonym – und sie befördern damit „Ängste“, die man als „Sorgen“ politisch zu adressieren hätte. So kommen wir dem KI-Problem schon gedanklich nicht bei.
Lassen wir uns also von Niklas Luhmann helfen, der streng unterscheidet zwischen „Gefahr“ und „Risiko“. Demnach kann KI per Definition nicht gefährlich sein, wohl aber hochriskant. Einer „Gefahr“ ist der Mensch laut Luhmann schicksalhaft ausgesetzt, potenziell verhängnisvoll – zum Beispiel einem unvorhersehbaren Naturereignis. Ein Tsunami ist gefährlich, ein Erdbeben, eine Stromschnelle, ein Gewitter – und wir fürchten diese Gefahren, weil sie unserer Verfügungsgewalt entzogen sind.
Deshalb ist auch nicht Gefahrlosigkeit das Antonym einer Gefahr (weil wir auch auf Meeresstille und Sonnenschein keinen Einfluss nehmen können) – sondern „Risiko“. Denn ein Risiko gehen wir Menschen ganz bewusst ein – weil wir es abschätzen, veranschlagen, kalkulieren.
Zugleich wissen wir spätestens seit Ulrich Beck, dass die gleichzeitige Zunahme von „Sicherheit“ und „Risiko“ die technologische Moderne kennzeichnen: Der Mensch regelt seit dem 18. Jahrhundert zunehmend viele „Gefahren“ ab (etwa die, vom Blitz getroffen zu werden) und schaltet unendlich viele „Risiken“ dazu (etwa die, sich mit 900 km/h in einem Flugzeug von A nach B zu bewegen), die er vorbehaltlich eines „Restrisikos“ zu beherrschen meint.
In diesem Sinne bedeutet jeder „zivilisatorischer Fortschritt“ niemals nur technologische Innovation, sondern immer zugleich ihre Folgeabschätzung. Auf das Ineinander von Neugestaltung und organisiertem Einspruch kommt’s an. Auf das Risiko – und seine Beherrschung. Nur bei Idioten kommen „Bedenken“ erst „second“.
Insofern ist der „AI Act“, den die Europäische Union gerade vorbereitet, der Versuch einer Identifizierung, Klassifizierung und Beherrschung von KI-Risiken, unbedingt wertvoll – nicht zuletzt, weil er annonciert, dass wir die „Risiken“ und „Sorgen“ in den Griff bekommen können – nicht „Gefahren“ und „Ängsten“ ausgeliefert sind.
Und allein insofern ist der (im Übrigen völlig abwegige) Vergleich mit der Atombombe statthaft. Erstens wird sich die Proliferation von KI, anders als im Fall der Atombombe, nicht verhindern lassen. Zweitens liegt ein Kardinalrisiko der KI, ganz im Gegensatz zur Atombombe, in der Privatisierung ihrer Macht. Und drittens unterscheidet sich die Hypothese der physischen „extinction“ der Menschheit durch den Atomtod in puncto Zerstörungspotenzial, Schmerz, Leid und Plötzlichkeit grundlegend von einem Szenario, in dem der aufgeklärte Mensch sich im Wege seiner Hervorbringungen sukzessiv (und vielleicht sogar fröhlich!) selbst das Licht ausbläst.
Denkbar ist allerdings, dass wir Menschen das Risiko KI zu beherrschen lernen – so wie in den vergangenen 75 Jahren das Risiko Atombombe. Und möglich ist das nur, wenn wir KI als Risiko begreifen, nicht als Gefahr. Vielleicht sogar als Chance.
Die Chancen und Risiken der generativen KI sind fraglos enorm – und sie betreffen zunächst einmal die Re-Valoriserung menschlichen Wissens und Arbeitens. Absehbar ist, dass das Erlernen von Orthografie und Fremdsprachen drastisch entwertet wird; prekär wird die lernende „Aneignung“ von Wissen in Schulen und an Universitäten, weil alles Wissen auf Knopfdruck verfügbar ist; die vormalige Ressource klassischer Bildung wird nurmehr ein Privatschatz, jedenfalls kaum mehr gesellschaftlich zu monetarisieren sein.
Einerseits. Andererseits ist denkbar, dass die Geisteswissenschaften (vorübergehend?) neu erblühen: Wenn die KI auf alles eine Antwort hat, bleibt dem Menschen nur noch übrig, sie immer wieder infrage zu stellen. Das Denkbare würde gegenüber dem Bescheidwissen wieder Raum gewinnen. Das Mögliche würde gegen das Erklärte in Stellung gebracht. Frei nach Karl Marx: KI hat die Welt nur einheitlich interpretiert. Es kommt aber darauf an, sie verschieden auszulegen. It’s all Hermeneutik, stupid!
Es ist daher auch möglich, dass KI kein „Jobkiller“ sein wird, sondern ein „Jobshifter“ – eine blöde Keynote-Phrase, gewiss, aber dennoch nicht verkehrt: KI (re-)produziert Nachrichten – Journalisten deuten das Geschehen. KI liest Computertomografien aus – Ärztinnen haben den individuellen Patienten im Blick. Das Menschliche kann profitieren. Und eine dramatische Aufwertung der menschlichen Gefühlswelt ist durchaus wahrscheinlich. Nick Cave zum Beispiel hat den ganzen Hype um KI-produzierte Musik zuletzt mit einer einzigen Bemerkung hingerichtet: KI leidet nicht beim Songwriting. Und füllt auch gewiss keine Waldbühnen.
Zwei KI-Risiken, die bisher noch unterbelichtet sind, seien abschließend noch kurz angerissen, weil sie womöglich stärker als bisher diskutiert gehören:
1. Wenn Bilder, Worte, Zeichen und Gesten nurmehr frei flottieren zur beliebigen Rekombination; wenn Sinn und Unsinn hierarchiefrei konkurrieren; wenn sich die Grenzen zwischen Fakten und Fiktionen auflösen und der Informationskonsum in Überangebot und algorithmisch bewirtschafteter Nachfrage seinen letzten Wirklichkeits(ge-)halt verliert – dann wird die Welt für uns Menschen als soziale, geteilte Welt, als Mit- und Umwelt, unlesbar – und vor die „epistemische Krise“ der Soziale-Medien-Ära („Was will ich (nicht) wissen?“ statt das alte kantsche „Was kann ich wissen?“) schiebt sich „semiotische Krise“ des KI-Zeitalters (Welchen Bildern, Worten, Zeichen kann und will ich vertrauen?). Mit welchen Folgen?
Dieser Text hier zum Beispiel. Sie können sich als Leser nicht sicher sein, dass er von mir geschrieben wurde. Es könnte auch sein, dass ich ihn von einer KI habe schreiben lassen. Oder dass eine Kollegin ihn an meiner Statt von einer KI hat schreiben lassen, weil ich gerade Urlaub habe oder zu faul bin, den „Tauchsieder“ zu schreiben, die Kolumne aber dennoch erscheinen soll. Kurzum: Sie müssen sich a) auf die WirtschaftsWoche und den Autorenhinweis verlassen – und b) darauf zählen, dass diese Worte tatsächlich originären, menschlichen Ursprungs sind. Oder sie lassen es.
Das Problem liegt in der möglichen Entgrenzung des Verdachts. Der Verdacht ist „unentbehrlich für die Demokratie“, hat die Philosophin Donatella DiCesare gerade in einem feinen Interview mit dem „Tagesspiegel“ gesagt. Aber „etwas anderes ist es, wenn der Verdacht ontologisiert wird, also unmittelbar als Tatsache betrachtet wird. Dann wird das Verdächtigen zum Selbstzweck entpolitisierter Milieus, zum Nährboden von Ressentiments und Verschwörungen. Dann schiebt sich die „semiotische Krise“ über die „epistemische Krise“ – und die Demokratie droht zum Opfer eines basalen „Verdachts“ ihrer Feinde zu werden.
2. Künstliche Intelligenz verbilligt die Prognose – und schrumpft damit den offenen Raum der Zukunft. Man hat sich Politik bisher vor allem als eine Art organisierte Datenverarbeitung vorzustellen – als staatliche Bewirtschaftung von Erfahrungen im Hinblick auf eine nähere Zukunft. Bei der heutigen und erst recht künftigen Politik handelt es sich dagegen um eine Art praktizierte Wahrscheinlichkeitsrechnung auf KI-Basis – um die staatliche Evaluierung von Prognosen im Hinblick auf das heutige Handeln. Beispiel Klimadebatte: Die vorgestellte Zukunft bestimmt das Handeln der politischen Akteure stärker als das Traditionswissen der Altvorderen – und verengt damit die „Offenheit“ der Zukunft.
KI beschleunigt diese Zukunftsschrumpfung. Ihr eignet vor allem prognostische Kompetenz. Und das Risiko besteht darin, dass wir uns ihren Orakelsprüchen gedanklich unterwerfen, dass wir das vorgestellte „Schicksal“ zum Leitstern unseres politischen Handelns erheben. Dabei zeichnet sich eine eigenartige Allianz zwischen Silicon-Valley-Libertären, politischen Bürokraten und Klima-Aktivisten ab. Gemeinsam ist ihnen der im Kern antiliberale Grundbefund, dass es angesichts der Klimakrise nurmehr um „Selbsterhaltung statt Selbstentfaltung“ geht.
Der Soziologe Philipp Staab hat Selbsterhaltung bereits zum Leitmotiv der „nächsten Gesellschaft“ erhoben; die Philosophin Eva von Redecker adelt sie bereits als Ausdruck einer neuen, fundamentalen „Bleibefreiheit“. Im Fluchtpunkt der Überlegungen liegt nicht mehr der demokratische Streit darüber, wie viel Klimaschäden akzeptabel sind. Sondern die Lösung des Problems auf der Basis einer zukünftigen Gewissheit wissenschaftlicher Expertise: „Listen to the science!“
Was also, wenn sich nicht nur staatskapitalistische Durchregierungsstaaten und großkapitalistische Plattformkonzerne darin einig wären, die Menschen künftig echtzeitanalytisch zu bewirtschaften und die Wirtschaftswelt aus dem Arkanum ihrer Codes und KI zu regieren – mit der „unsichtbaren Hand des Plans“? Sondern wenn auch Ministerialbürokratien und Klimaaktivisten sich die Hände reichen und sagen: Keine schlechte Idee? Kündigt sich hier eine Art „kybernetisches Regieren“ an – mit dem Ziel, die Welt gleichsam in Reibungslosigkeit aufzulösen dank der Prognosekraft Künstlicher Intelligenz? Auch hier droht die Demokratie ein Opfer zu werden, wenn auch ihrer vorgeblichen Freunde.
Lesen Sie auch: „Bei KI müssen wir auch die Horrorszenarien mitbedenken“
