Künstliche Intelligenz Computer mit Gefühlen

Computer und Software durchdringen längst unseren Alltag. Nun sollen sie lernen, unsere Gefühle zu verstehen. Wie ähnlich können die digitalen Seelen den Menschen dabei werden?

  • Teilen per:
  • Teilen per:
Designer Hegel, Computerkopf Flobi: Testpersonen reagieren emotional aufs Mienenspiel der Mikroelektronik Quelle: Stefan Kröger für WirtschaftsWoche

Es ist ein schüchternes Spiel. Ein Kontakt mit den Augen bloß; wie ein Flirt. Rasch dreht Flobi den Kopf wieder zur Seite. Nur um gleich erneut herüberzulinsen. Ertappt! Blicke kreuzen sich, ein zarter roter Schimmer macht sich auf Flobis Wangen breit. Dann spielt ein Schmunzeln über die Lippen und schließlich ein breites Grinsen. Doch das Spiel im Roboterlabor der Universität Bielefeld endet abrupt. Frank Hegel, Designer und Mitentwickler von Flobi, dreht dem Roboterkopf kurzerhand den Saft ab. Schluss ist mit der dynamischen Mimik – und dem -Gefühl echter Interaktion. „Flobis Spiel der Blicke“, sagt Hegel, „war simulierte Emotion.“

Vor allem aber ist es Teil eines der spannendsten Projekte der Informationstechnik. Es geht um die Neudefinition der Beziehung zwischen Mensch und Maschine. Forscher und Unternehmen weltweit arbeiten mit Hochdruck daran, Computern Verständnis für menschliche Gefühle beizubringen. Die Elektronenhirne sollen Hören und Sehen lernen, Emotionen empfinden und diese letztlich – wie Flobi – auch ausdrücken können.

Dessen Mienenspiel, gesteuert von Mikroelektronik und Magneten, wirkt schon jetzt faszinierend real. Dabei ähnelt der im Mai präsentierte Charakterkopf eher einer Playmobilfigur, als einem realen Gesicht. Doch schon erste Versuche zeigen, wie emotional Testpersonen auf seine Mimik reagieren. Hegels Erfahrung: „Die Leute lassen sich auf die Maschine ein, als wäre sie ein Mensch.“

Informatik mit Gefühl

Computer und Gefühle – lange war das vor allem ein Thema für Hollywood-Streifen à la „Nummer 5 lebt!“ oder Stanley Kubricks „2001: Odyssee im Weltraum“. Im Kino-Klassiker von 1968 entwickelt der Supercomputer HAL während des Flugs zum Jupiter, ein Eigenleben und Gefühle. Nun aber ist Schluss mit Science-Fiction. Unbemerkt vom Massenpublikum vollzieht sich der Sprung der Technik von der Leinwand in den Alltag.

Längst ist das nicht mehr nur ein Thema für Wissenschaftler in den USA, Europa und Asien. Auch Unternehmen investieren in entsprechende Forschungs- und Entwicklungsprojekte: Neben IT-Konzernen wie IBM und Microsoft drängen selbst der Autohersteller Volkswagen und die Deutsche Telekom in das neue Feld. Ziel der Projekte sind Rechner und Roboter, die sich den Bedürfnissen der Menschen anpassen statt umgekehrt. „Wir müssen weg von Maschinen, die nur stur auf eingegebene Befehle reagieren“, sagt Tanja Schultz. Die Informatik-Professorin, eine der führenden deutschen Expertinnen für Computer mit Charakter, leitet den Lehrstuhl für Kognitive Systeme am Karlsruher Institut für Technologie.

Affective Computing – Informatik mit Gefühl – heißt der neue Techniktrend, der in alle Lebensbereiche vordringt: von der Bildung über die Pflege alter Menschen, von der Unterhaltung über Marktforschung bis zum Automobilbau. So hat etwa der Autohersteller Audi mit Forschern des Massachusetts Institute of Technology (MIT) den Affective Intelligent Driving Agent entwickelt. Aida erkennt Fahrverhalten und Gewohnheiten des Nutzers, überwacht den Verkehr und kommuniziert durch ein Robotergesicht am Armaturenbrett. Das zwinkert dem Fahrer fröhlich zu, wenn Aida eine besonders zügige Route ermittelt hat und lässt den Kopf hängen, wenn im Feierabendstau nichts mehr geht. „Ziel war ein System, das Tipps gibt wie ein kluger, freundlicher Beifahrer“, sagt Carlo Ratti, der Chef des Senseable City Lab am MIT.

Wie die Technik die Unterhaltungswelt revolutioniert, führt der Softwareriese Microsoft in wenigen Tagen auf der Computerspielemesse E3 in Los Angeles vor. Dort präsentiert Peter Molyneux, kreativer Kopf von Microsofts Spiele-sparte in Europa und Chef des Spieleentwicklers Lionhead, Mitte Juni neue Details zu seinem digitalen Charakter Milo, einem virtuellen Zehnjährigen. Mit dem sollen sich Besitzer der Xbox-Spielekonsole künftig zum digitalen Zeitvertreib treffen.

Schon bei Milos erstem Auftritt auf der E3 2009 hatte Molyneux die Zuschauer begeistert. Ein neues Zusatzmodul für die Xbox, genannt „Natal“, ermöglichte eine quasi reale Kommunikation zwischen dem elektronischen Teenager und dem Spieler vor dem Monitor. Über die Videokamera und das Mikrofon im Natal-Modul erkannte Milo nicht nur, woher sich Spieler nähern. Dank der Gesichtserkennung in der Software konnte der Elektrogeselle die Spielgefährten auch mit Namen ansprechen und in Dialoge verwickeln. Aus Gesichtsausdruck, Körperhaltung oder Stimmlage der Spieler schließt Milo auf deren Laune und versucht sie bei Bedarf aufzuheitern. „Gemessen am Grad emotionaler Ansprache durch Computerwesen“, sagt Molyneux, „bedeutet Milo einen bislang unerreichten Grad der Interaktion.“

Roboter sollen gegen Einsamkeit helfen Quelle: Stefan Kröger für WirtschaftsWoche

Die neue Empfindsamkeit der Elektrohirne nutzen auch Gesundheitsexperten. Haushaltsroboter sollen es alten Menschen ermöglichen, länger in ihrer vertrauten Umgebung zu leben. So haben Forscher am Fraunhofer-Institut für Graphische Datenverarbeitung in Rostock mit Diatrace ein Sensor-System entwickelt, das den Gefühls- und Aktivitätszustand von Menschen überwacht. Wie in einer Art privatem Facebook-Netzwerk lassen sich die Informationen an Verwandte oder den Arzt übermitteln.

Ein spezieller Sensorhandschuh erfasst Hautwiderstand, Körpertemperatur sowie den Puls und leitet daraus Emotionsänderungen und den Gesundheitszustand ab. Bei Bedarf fungiert Diatrace sogar als elektronisches Über-Ich: Wenn sich der Träger länger nicht bewegt, lässt das System das Telefon klingeln – als sanfte Erinnerung an Herrn oder Frau Senior, sich mal wieder die Beine zu vertreten.

In Japan sorgen spezielle Robo-Robben bereits für die elektronisch-emotionale Ansprache bei Altenheimbewohnern. Die Paro genannten Tiere fungieren als Mega-Tamagotchi. Sie reagieren unter anderem mit wohligem Bellen auf Kraulen und kuscheln sich an den Träger. Dieser Kontakt und die Beschäftigung mit dem autonom scheinenden Computerwesen helfen vielen Senioren gegen das Gefühl der Vereinsamung, haben japanische Forscher festgestellt. Dabei muss der Einsatz von Computern kein Nachteil sein. Das zeigen Studien aus den USA. Danach reagierten Demenzkranke nicht minder positiv, wenn sie Zeit mit Sonys Roboterhund Aibo verbrachten, als wenn sie mit echten Vierbeinern spielten.

Roboter als Motivator für Astronauten

Computerkopf Flobi, finanziert mit Mitteln der Exzellenzinitiative von Bund und Ländern sowie der Deutschen Forschungsgemeinschaft, könnte in Zukunft gar Astronauten als Motivator dienen. Ab diesem Sommer wollen Experten des Deutschen Zentrums für Luft- und Raumfahrt in Köln untersuchen, ob die Mimik-Maschine auf der Internationalen Raumstation ISS oder bei künftigen Raumflügen als Fitness-Coach agieren könnte.

Grundlage eines glaubwürdigen digitalen Seelenlebens ist ein komplexes Geflecht von Software-Komponenten. Sie reichen von der optischen und akustischen Wahrnehmung menschlicher Emotionen über deren Interpretation bis zur adäquaten Reaktion mithilfe spezieller Computerstimmen, die menschlich klingen und auf Wunsch sogar einen emotionalen Unterton annehmen.

An einer der wichtigsten Baustellen arbeitet Christian Küblbeck. Der Bildsensorik-Spezialist entwickelt am Fraunhofer-Institut für Integrierte Schaltungen in Erlangen sozusagen den Sehnerv der Cyber-Wesen. Seine Software Shore kann Menschen in Bildern oder Videos identifizieren. Mithilfe der Technik misst etwa der Potsdamer Videoanalyse-Spezialist Vis-a-pix, wie viele Kunden in Supermärkten auf Werbebotschaften schauen.

Neben Geschlecht und Altersklasse der Menschen kann die Software zudem deren Stimmung bestimmen. Die Bilderkennung analysiert Punkte wie Augen, Nase oder Mundwinkel und wie sich ihre Position verändert – etwa wenn ein Mensch die Stirn in Falten legt. Das Programm errechnet, „mit welcher Wahrscheinlichkeit der Betrachter froh ist, traurig oder überrascht“, sagt Küblbeck.

Die Technik wollen der Nürnberger GfK-Verein, Mehrheitsaktionär des Marktforschers GfK, und die Fraunhofer-Forscher bis 2011 marktreif machen. Das System soll Gefühlsregungen von Probanden automatisch auswerten, die beim Blick auf Werbebilder, -videos oder Produkte – vom Rasierer bis zum iPad – fotografiert oder gefilmt werden. 250 000 Euro stecken schon im Projekt, „und es kommen noch ein paar Hunderttausender dazu“, sagt Raimund Wildner, Geschäftsführer des GfK-Vereins. „Aber dann haben wir ein weltweit einmaliges Werkzeug.“

Baupläne für die digitale Seele bestehen Quelle: Stefan Kröger für WirtschaftsWoche

So wie Menschen Stimmungen ihres Gegenübers aus Mimik, Stimmlage und Aussagen ableiten, trainieren die Entwickler nun auch Rechnern ein empfindsames Gehör an. So wollen Entwickler der T-Labs, dem Forschungszentrum der Deutschen Telekom, und des US-Spezialisten für Sprachsoftware Nuance aus dem Redefluss eines Sprechers dessen Gemütslage destillieren. Geschlecht und Altersgruppe können die Spezialisten bereits per Computer bestimmen. In Ansätzen gilt das auch für die Laune: „Männlich, 30 bis 50 und sauer“, sagt Joachim Stegmann, Projektfeldleiter für Sprachanwendungen bei den T-Labs, „erkennt die Analyse schon sehr sauber.“

Auf dem Weg zum Computerwesen, das uns wirklich versteht, sind Seh- und Hörvermögen aber nur Zwischenschritte. Entscheidend ist, die Rechner so zu programmieren, dass sie aus den Informationen aus Sprach-, Text- und Bildanalyse eigene Handlungen ableiten. „Dabei ist vorerst zweitrangig, ob die Maschinen tatsächlich Gefühle empfinden“, sagt Patrick Gebhard vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Saarbrücken. Es gehe vielmehr darum, „dass ihr Handeln für menschliche Betrachter plausibel ist und realistisch wirkt“, sagt der Physiker und Informatiker Gebhard.

Erste Ansätze gibt es bereits. So hat etwa der Bamberger Psychologe Dietrich Dörner in seinem gleichnamigen Buch einen „Bauplan für eine Seele“ entwickelt – und darauf basierend eine Software für digitale Charaktere programmiert. Die nennt er, nach dem griechi-schen Anfangsbuchstaben des Wortes Psyche, „Psi“. In verschiedenen Szenarien, hat Dörner seither untersucht, wie realitätsnah die Software soziales Handeln von Individuen im Computer nachbildet. Als Nächstes will Dörner die Software Selbstreflexion lehren. Er glaubt, dass das machbar ist.

Emotionen selbst erlernen als Roboter

DFKI-Forscher Gebhard nähert sich dem Problem von einer anderen Seite. Er bildet mit seiner Software Alma das komplexe Geflecht jener Faktoren nach, die nach Auffassung vieler Psychologen menschliche Regungen steuern: kurzfristige Emotionen, längerfristig wirkende Stimmungen und jene Kernmerkmale der Persönlichkeit, die Menschen prägen. Noch fehle Alma das automatische Erlernen individueller Auffassungen, räumt Gebhard ein. Bisher muss der Forscher das digitale Wertesystem des Programms manuell justieren. „Beim Menschen geschieht das durch Sozialisation, Umwelt und Erziehung“, sagt er. Den Job könnten bei Computern in Zukunft möglicherweise sogenannte selbstlernende Systeme übernehmen, hofft Gebhard.

An solch einem System arbeitet Peter Fankhänel, der Gründer und Geschäftsführer des Software-Startups Advanced Magic. Angelehnt an Dörners Thesen will er eine Art intelligente Software erzeugen. „Ähnlich wie ein Kind, das Informationen und deren Beziehungen zueinander erfasst und sich so die Welt erschließt.“ Quasi ein Roboter-Baby, das ausgehend von einen Basiswortschatz mit der Zeit immer komplexere Texte verstehen lernt. Im Sommer, hofft Fankhänel, soll das Programm das Wortverständnis eines zwei- bis dreijährigen Kindes haben, „und sich zügig neues Wissen aneignen“. Mit der neuen Software könnten beispielsweise digitale Online-Berater im Internet deutlich interaktiver und flexibler reagieren.

Zum Beispiel die Computer-Kreaturen von Alexander Reinecke, dem Gründer und technischen Direktor von Charamel. Das Kölner Softwarehaus entwickelt digitale Avatare – computergenerierte Cyber-Wesen. Autohersteller wie Volkswagen setzen die interaktiven -Ratgeber ein, um Käufern von Oberklassewagen die integrierten High-End--Unterhaltungssysteme im Dialog zu erläutern. „Reaktion, Animation und Mimik der Computerwesen kann die Software in Echtzeit, abhängig von Frage und Themengebiet, berechnen“, sagt der Charamel-Cheftechniker. Noch greife der Fahrzeug-Computer auf Sprach- und Grafikmodule zurück. In Zukunft aber, hofft Reinecke, sollen die Avatare dank Spracherkennung noch deutlich flexibler und freier mit den Nutzern interagieren.

Mit einer solchen hochgradig autonom agierenden Software faszinieren schon jetzt Andreas Gerber und sein Team die Programmierer von Computerspielen weltweit. Gerbers Unternehmen Xaitment entwickelt Programmmodule, mit denen Spieledesigner virtuellen Charakteren selbstbestimmt wirkende und hochkomplexe Charaktere implantieren.

„Das sind zwar noch immer keine über ihr Handeln reflektierenden Computer“, sagt Entwickler Gerber. „Doch die Maschinenwesen so menschenähnlich und überraschend zu machen, dass der Spieler ihr Verhalten nicht mehr vorhersehen kann, „das ist gegenüber heutigen Spielen ein immenser Fortschritt“.

Stünde er gerade unter Strom, auch Flobi würde vermutlich eifrig nicken.

© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%