Künstliche Intelligenz Die Schreibmaschine

Open AI, KI, Elon Musk Quelle: imago images

Algorithmen, die täuschend echte Texte schreiben, dringen tief in unseren Alltag ein – als Chatbots oder Fake-News. Ein Start-up, das Elon Musk gegründet hat, erzeugt so gute Roboter-Texte, dass es vor Missbrauch warnt.

  • Teilen per:
  • Teilen per:

Es gibt Computer, die das Wetter vorhersagen, Computer, die prophezeien, wie sich die Börsenkurse entwickeln oder wo die Autobahn überfüllt ist. Sie alle verändern zunehmend unseren Alltag, bestenfalls zum Besseren, weil wir nicht mehr im Regen stehen oder im Stau.

Aber beim Computermodell GPT-2 sind sich die Schöpfer selbst nicht sicher, ob sie die Welt zum Besseren verändern: GPT-2 sagt nur eine Sache vorher: das nächste Wort in einem Text. Und es macht seine Sache extrem gut, gemessen am Stand der Technik: Viele der Texte, die GPT-2 Wort für Wort zusammensetzt, sind sprachlich fehlerfrei und inhaltlich schlüssig. Sie könnten auch von Menschen geschrieben worden sein.

Das ist zwar einerseits das große Ziel vieler Forscher: Eine künstliche Intelligenz (KI), die uns Schreibkram abnimmt, uns persönlich berät, unterrichtet oder unterhält. Andererseits, in den falschen Händen, könnte so eine universale Schreibmaschine viel Unheil anrichten: Sie könnte Propaganda verbreiten und das Netz mit Falschmeldungen fluten, bis niemand mehr weiß, was wahr ist und was gelogen.

Das nichtkommerzielle Forschungsunternehmen OpenAI, das GPT-2 entwickelt hat, entschied sich darum zu einem ungewöhnlichen Schritt: Es veröffentlichte in einem Aufsatz und einem Blogbeitrag zwar die erstaunlichen Ergebnisse seiner neuen KI. Doch die dahinterliegende Technik und die benutzten Datensätze halten die Forscher, anders als bei wissenschaftlichen Publikationen üblich, unter Verschluss - aus Sorge, der Code könne genutzt werden, um „irreführende, voreingenommene oder beleidigende Sprache in großem Maßstab zu generieren“, wie die Schöpfer in einem Blogbeitrag schreiben.

Was steckt hinter dieser Entscheidung? Ist KI etwa inzwischen so gut geworden, dass sie uns hinters Licht führen kann? Und was bedeutet GPT-2 für die Zukunft von Werbung, Handys und intelligenten Maschinen?

Wie GPT-2 genau funktioniert, wissen vermutlich nur seine Entwickler. Aber so viel ist bekannt: Es handelt sich um ein Computermodell, das Texte vorhersagen kann. Dazu wertet es riesige Mengen an Texten aus, die von Menschen verfasst worden sind. Es versucht, darin Muster zu erfassen, ohne dass ein Wissenschaftler ihm dabei Vorgaben macht.

Die Resultate, die OpenAI veröffentlicht hat, sind beachtlich: Gibt man GPT-2 zwei Sätze vor, schreibt die KI den Text weiter - in einem ähnlichen Stil und mit Sätzen, die auch inhaltlich sinnvoll daran anknüpfen. In einem publizierten Fall ist das eine fiktive Geschichte über einen Forschertrupp, der in den bolivianischen Anden eine Herde Einhörner entdeckt.

Die Redakteure vom Online-Magazin The Verge durften die Software ausprobieren. „This is the story of a little dog named Boo“ tippten sie ein („Dies ist die Geschichte eines kleinen Hundes namens Boo.“) Die KI dichtete einige Sätze weiter: „You see, Boo is a Labrador, a dog that loves people more than anything else...“ („Schau, Boo ist ein Labrador, ein Hund, der Menschen mehr liebt als alles andere...“).

Die KI kann auch Texte analysieren und dann Fragen dazu in vielen Fällen korrekt beantworten. Sie kann Texte mit überzeugenden Ergebnissen von einer Sprache in die andere übersetzen und von einem Schreibstil in einen anderen. Und bei Tests zum Leseverständnis liefert sie deutlich bessere Resultate ab als bisherige Software.

Möglich machte den Fortschritt, neben besseren Algorithmen, der riesige Datensatz, an dem sich die KI abarbeiten konnte: Acht Millionen Webseiten studierte sie, insgesamt 40 Gigabyte Text. Das entspricht 8000 Büchern mit der Textmenge der Bibel.

Eine Art TÜV, der Nachrichten prüft?

Die Veröffentlichung ist nur der jüngste in einer ganzen Reihe von Fortschritten, die Forscher bei der linguistischen Datenverarbeitung, dem so genannten „Natural language processing“, zuletzt erreicht haben. So veröffentlichte Google im vergangenen Jahr ein Sprachmodell namens BERT, das ebenfalls Fragen zu Texten sinnvoll und korrekt beantworten kann. Die Maschine rückt dem bisher einzigartigen Sprachtalent des Menschen also immer näher.

Das ist von kommerziellem Interesse: In den USA testet Google schon seine Software Duplex, die im Restaurant per Telefon Reservierungen entgegennimmt oder Friseurtermine vereinbart - ohne, dass viele Kunden merken, dass kein Mensch am anderen Ende der Leitung ist, sondern eine Maschine.

Der Fortschritt von OpenAI könne die Arbeit mit Sprache künftig vereinfachen, sagt Lena Frischlich, Kommunikations- und Medienpsychologin an der Westfälischen Wilhelms-Universität Münster. Buchautoren ersetze die Software zwar noch nicht, dafür mache sie noch zu viele Fehler. Aber: „Ich muss vielleicht nicht mehr alles schreiben, sondern kann eher lektorieren“. Wie die Autokorrektur beim Handy, nur für ganze Texte.

Denkt man das weiter, könnte ein Teil der Spracharbeit im Internet und auf der Arbeit bald auf Computer übertragen werden: Die Arbeit im Kundendienst ließe sich so womöglich ähnlich automatisieren wie die von Sekretären im Büro oder bei der Beschreibung von Produkten für Online-Seiten. Chatbot-Software, die mit Kunden redet, soll in vier Jahren allein den Banken, dem Handel und der Medizinbranche elf Milliarden Dollar an Kosten sparen, sagen die Marktforscher von Juniper Research voraus.

Das alles hat aber auch seine Schattenseite: Schon heute kursieren im Netz computergenerierte Texte, die gezielt Meinungsmache betreiben sollen. Falschmeldungen wurden etwa bei der US-Präsidentschaftswahl auf Facebook massenhaft verbreitet, um Wähler zu beeinflussen. Die OpenAI-Forscher warnen selbst, eine Software wie ihre könne irreführende Nachrichtenartikel erzeugen oder Menschen im Netz täuschend echt imitieren.

Das Forschungsergebnis zeige, „dass wir dringend Maßnahmen und Normen benötigen, um Missbrauch einzudämmen“, sagt Wolfram Burgard, Professor für Autonome Intelligente Systeme an der Universität Freiburg. „Andernfalls besteht die Gefahr, dass andere Gesellschaften mit anderen Standards diese Techniken vorantreiben und wir möglichen negativen Einflüssen unvorbereitet ausgesetzt sein werden.“

Für den Neurologen Philipp Kellmeyer von der Uniklinik Freiburg, der den verantwortungsvollen Umgang mit künstlicher Intelligenz erforscht, stellt sich nun die Frage, „ob sich daraus eine Kennzeichnungspflicht für sprachbasierte KI-Systeme ergibt.“ Google Duplex dürfte einen Telefonanruf dann also nicht beantworten, ohne vorher klarzustellen, dass es sich um eine KI handelt.

Wie aber Fake-News bekämpfen? KI-Forscher Burgard oder seine Freiburger Kollegin Silja Vöneky, Professorin für Völkerrecht und Rechtsethik, plädieren für internationale Normen. Kellmeyer schlägt Zertifizierungsstellen für digitale Inhalte vor, also eine Art TÜV, der Nachrichten prüft. Doch der Aufwand dürfte gewaltig sein.

Die Debatte ist dringend: KI-Experten nämlich könnten GPT-2 trotz der Selbstzensur mit einiger Mühe nachbauen, räumt OpenAI ein. Ohnehin ist es nur eine Frage der Zeit, bis andere Forscher noch eloquentere Systeme bauen.

OpenAI selbst will in einem halben Jahr eine Strategie vorstellen, um die Entwicklung von spracherzeugenden Computern und ihren Einfluss auf die Gesellschaft besser zu beurteilen. Das Start-up war 2015 mit dem Ziel angetreten, künstliche Intelligenz zu entwickeln, die der Menschheit dienen solle – initiiert und finanziert von Tesla-Gründer Elon Musk. Ursprünglich wollte Musk bis zu eine Milliarde Dollar in OpenAI stecken. Doch der ist inzwischen nicht mehr von dessen Arbeit überzeugt: Auf Twitter bestätigte Musk vor ein paar Tagen, OpenAI verlassen zu haben – wegen unterschiedlicher Meinungen über die Stoßrichtung des Projektes.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%