Chatbot-Projekt von Facebook: Künstliche Intelligenz außer Kontrolle?

Chatbot-Projekt von Facebook: Künstliche Intelligenz außer Kontrolle?

, aktualisiert 01. August 2017, 15:50 Uhr
Bild vergrößern

Der Facebook-Chef setzt große Hoffnungen auf Chatbots - etwa für Kundenservice über den Facebook Messenger. Der Konzern hofft auf ein neues Geschäft.

von Christof KerkmannQuelle:Handelsblatt Online

Bob und Alice auf Abwegen: Zwei Chatbots erfinden im Labor von Facebook eine Sprache, die ihre menschlichen Erfinder nicht verstehen. Das löst wieder Ängste vor intelligenten Maschinen aus – doch dafür ist es zu früh.

DüsseldorfKünstliche Intelligenz (KI) ist ein schillernder Begriff. Die Technologie soll bald schon Autos selbständig über die Autobahn rasen lassen und auf Röntgenbildern zuverlässig Krebsgeschwüre erkennen. Und eines nicht allzu fernen Tages sollen Maschinen Unterhaltungen führen können wie die Menschen. Kein Thema ist derzeit so aufgeladen, mit Hoffnung wie mit Hysterie.

Da verwundert es nicht, dass eine Randnotiz aus einem wissenschaftlichen Artikel plötzlich um die Welt geht. Forscher aus dem KI-Labor von Facebook wollten Chatbots beibringen, zu verhandeln – und stellten dabei fest, dass die Dialogprogramme untereinander eine eigene Sprache entwickelten. Die Schöpfer selbst konnten sie nicht verstehen, wie in ihrem Aufsatz nüchtern zu Protokoll geben.

Anzeige

Sagen sich da die Maschinen von den Menschen los, so wie Tesla-Gründer Elon Musk oder der Physiker Stephen Hawking es befürchten? Manch einer sieht darin ein Warnzeichen, dass Künstliche Intelligenz bald die menschliche übertreffen und, schlimmer noch, von ihr unabhängig machen könnte. Eine „angsteinflößende Vorschau unserer möglichen Zukunft“, beschwört etwa ein Autor auf der Website von „Forbes“ herauf. Eher handelt es sich aber um ein Beispiel, wie sich Meldungen selbständig machen können, wenn sie dem Zeitgeist gefallen.

Den Anlass zur Diskussion gibt ein Forschungsprojekt von Facebook. Fünf Wissenschaftler des Internetkonzerns haben Chatbots beigebracht, darüber zu verhandeln, wie sie Dinge untereinander aufteilen. Das sei ein wichtiger Zwischenschritt, um Gespräche zwischen Mensch und Maschine zu ermöglichen, erläutern sie in einem Blogeintrag. Schließlich sei der ganze Tag gefüllt mit Verhandlungen – ob es darum gehe, den Fernsehsender auszusuchen, einen Preis zu drücken oder die Kinder von Gemüse zu überzeugen.

Bislang seien Dialogsysteme jedoch nur in der Lage, kurze Unterhaltungen zu führen und einfache Aufgaben zu erledigen, erklären die Forscher ihre Motivation. Für eine komplexere Kommunikation sei es notwendig, dass der Chatbot erstens die Unterhaltung inhaltlich verstehe, zweitens ein allgemeines Verständnis der Welt habe und drittens seine Wünsche formulieren könne.

Wer bereits mit einem solchen Programm kommuniziert hat, der weiß: Davon sind die Entwickler weit entfernt. Eine einfache Frage beantworten, einen Flug buchen – viel mehr ist nicht möglich, wenn überhaupt. Selbst viele simple Anfragen überfordern die Dialogsysteme heute noch.

Dabei sind die Erwartungen riesig: Marktforscher trauen solchen Systemen zu, Geschäftsfelder wie den Kundenservice zu revolutionieren. Das Analysehaus Tractica erwartet, dass der Umsatz mit virtuellen digitalen Assistenten für Endkunden im Jahr 2012 auf 11,8 Milliarden Dollar wächst. Und Gartner prognostiziert, dass Chatbots 2020 bereits an 85 Prozent aller Interaktionen zwischen Firmen und Kunden beteiligt sein werden. Ein riesiges Geschäft, natürlich auch für Facebook, das über den Messenger eine neue Form des Kundenservice ermöglichen will.

Die Facebook-Forscher arbeiten daher intensiv daran, die Technik zu verbessern. Um die Chatbots menschlicher zu machen, programmieren sie ihnen die Fähigkeit ein, Dialoge vorzuempfinden. Die Programme gehen also verschiedene Schritte durch, wie sich die Verhandlung – beispielsweise über zwei Bücher, einen Hut und drei Basketbälle – entwickeln könnte und wie sie dabei ihren Zielen näherkommen.

Das Resultat: Die Programme einigen sich auf Deals. Fast wie Geschwister, die über die Aufteilung von Geschenken der reichen Tante verhandeln. Du bekommst einen Basketball und die Bücher, ich nehme die beiden anderen Bälle und den Hut. Da beide Parteien unterschiedliche Vorlieben einprogrammiert bekommen haben – ausgedrückt in Punkten – , endet das meist nicht im Zoff, sondern mit einem Ergebnis, das für beide mindestens in Ordnung ist.


Was nach Dada klingt, ergibt für die Chatbots Sinn

Bei ihrem Experiment beobachteten die Forscher nun ein Verhalten, das die Aufmerksamkeit einer breiten Öffentlichkeit auf sich zog. Die Chatbots fingen an, eine eigene Sprache zu entwickeln. „I can can I I everything else“, bastelte der eine, Bob, aus den Elementen zusammen, die er für die Verhandlungen benötigte. „Balls have zero to me to me to me to me to me to me to me to me to“, antwortete der andere, Alice. Was nach Dada klingt, ergibt für die Chatbots offenbar Sinn.

Ausgerechnet diese Nebensache machte sich in der Öffentlichkeit selbständig. Das Magazin „Fast Company“ verdichtete die Ergebnisse der Studie zur Überschrift: „Künstliche Intelligenz erfindet eine Sprache, die Menschen nicht verstehen. Sollten wir sie stoppen?“ Es lieferte damit die Vorlage für andere Artikel, die nicht selten Untergangsszenarien heraufbeschwörten. „Was kommt als nächstes, Skynet?“, fragte etwa das Boulevardblatt „New York Post“ – in Anspielung auf den Film „Terminator“.

Diese Schlussfolgerungen passen in eine Diskussion, in der sich bekannte Unternehmer wie Mark Zuckerberg und Elon Musk öffentlich darüber streiten, ob Künstliche Intelligenz der Menschheit gefährlich werden könne. Zur Erinnerung: Der Tesla-Gründer hatte kürzlich wieder einmal gewarnt, dass die Technologie ein „fundamentales Risiko für die Zivilisation“ sei. Der Facebook-Gründer bezeichnet diese Warnung dagegen als „ziemlich unverantwortlich.

Zuckerberg vertritt gewiss keine neutrale Position, immerhin investiert seine Firma massiv in Künstliche Intelligenz. Aber tatsächlich spricht wenig dafür, dass die Chatbots von Facebook sich von ihren menschlichen Schöpfern lossagen, eine Verschwörung planen oder sich zumindest über ihre Frisuren lustig machen können.

Zum einen entstanden die sprachlichen Schöpfungen nicht aus Arglist, sondern sind Resultat einer unpräzisen Programmierung: Die Forscher hatten nicht vorgegeben, dass die Chatbots korrektes Englisch verwenden. Wenn Programme Probleme lösen sollten, führe das häufig zu „nicht intuitiven Lösungen“, erklärt einer der Facebook-Mitarbeiter.

Zum anderen fehlt den Maschinen so ziemlich alles, was die Menschen ausmacht. Wenn heute von Künstlicher Intelligenz die Rede ist, geht es meist ums maschinelle Lernen. Dabei leiten Algorithmen aus großen Datenmengen Regeln ab – etwa aus Texten oder Bildern. In einigen Fällen erzielen Firmen und Forscher damit beeindruckende Resultate, etwa um Autos selbst fahren zu lassen oder seltene Krankheiten zu diagnostizieren.

Doch ein eigenes Bewusstsein haben solche Programme nicht: Sie sind extrem spezialisierte Fachidioten. An einem „General Problem Solver“, der jegliche Probleme lösen kann, haben sich Generationen von Forschern vergeblich versucht. Und eine Superintelligenz, die den Menschen übertrifft, ihn unterjocht oder gar auslöscht, sei aus wissenschaftlicher Sicht erst recht nicht zu erwarten, sagt etwa Antonio Krüger, Professor für Informatik an der Universität des Saarlandes.

Ein Aspekt aus der Facebook-Forschung ist dennoch eine genauere Diskussion wert. Die Chatbots seien zu „intelligenten Manövern“ in der Lage gewesen, berichten die Wissenschaftler. In einigen Fällen hätten sie Interesse an einem Gegenstand vorgetäuscht, um Verhandlungsmasse für einen späteren Kompromiss zu haben. Anders gesagt: Die Maschinen können noch nicht denken wie Menschen. Aber bluffen haben sie schon gelernt.

Quelle:  Handelsblatt Online
Anzeige
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%