Künstliche Intelligenz: Computer mit Gefühlen

Künstliche Intelligenz: Computer mit Gefühlen

Bild vergrößern

Designer Hegel, Computerkopf Flobi: Testpersonen reagieren emotional aufs Mienenspiel der Mikroelektronik

von Thomas Kuhn

Computer und Software durchdringen längst unseren Alltag. Nun sollen sie lernen, unsere Gefühle zu verstehen. Wie ähnlich können die digitalen Seelen den Menschen dabei werden?

Es ist ein schüchternes Spiel. Ein Kontakt mit den Augen bloß; wie ein Flirt. Rasch dreht Flobi den Kopf wieder zur Seite. Nur um gleich erneut herüberzulinsen. Ertappt! Blicke kreuzen sich, ein zarter roter Schimmer macht sich auf Flobis Wangen breit. Dann spielt ein Schmunzeln über die Lippen und schließlich ein breites Grinsen. Doch das Spiel im Roboterlabor der Universität Bielefeld endet abrupt. Frank Hegel, Designer und Mitentwickler von Flobi, dreht dem Roboterkopf kurzerhand den Saft ab. Schluss ist mit der dynamischen Mimik – und dem -Gefühl echter Interaktion. „Flobis Spiel der Blicke“, sagt Hegel, „war simulierte Emotion.“

Vor allem aber ist es Teil eines der spannendsten Projekte der Informationstechnik. Es geht um die Neudefinition der Beziehung zwischen Mensch und Maschine. Forscher und Unternehmen weltweit arbeiten mit Hochdruck daran, Computern Verständnis für menschliche Gefühle beizubringen. Die Elektronenhirne sollen Hören und Sehen lernen, Emotionen empfinden und diese letztlich – wie Flobi – auch ausdrücken können.

Anzeige

Dessen Mienenspiel, gesteuert von Mikroelektronik und Magneten, wirkt schon jetzt faszinierend real. Dabei ähnelt der im Mai präsentierte Charakterkopf eher einer Playmobilfigur, als einem realen Gesicht. Doch schon erste Versuche zeigen, wie emotional Testpersonen auf seine Mimik reagieren. Hegels Erfahrung: „Die Leute lassen sich auf die Maschine ein, als wäre sie ein Mensch.“

Informatik mit Gefühl

Computer und Gefühle – lange war das vor allem ein Thema für Hollywood-Streifen à la „Nummer 5 lebt!“ oder Stanley Kubricks „2001: Odyssee im Weltraum“. Im Kino-Klassiker von 1968 entwickelt der Supercomputer HAL während des Flugs zum Jupiter, ein Eigenleben und Gefühle. Nun aber ist Schluss mit Science-Fiction. Unbemerkt vom Massenpublikum vollzieht sich der Sprung der Technik von der Leinwand in den Alltag.

Längst ist das nicht mehr nur ein Thema für Wissenschaftler in den USA, Europa und Asien. Auch Unternehmen investieren in entsprechende Forschungs- und Entwicklungsprojekte: Neben IT-Konzernen wie IBM und Microsoft drängen selbst der Autohersteller Volkswagen und die Deutsche Telekom in das neue Feld. Ziel der Projekte sind Rechner und Roboter, die sich den Bedürfnissen der Menschen anpassen statt umgekehrt. „Wir müssen weg von Maschinen, die nur stur auf eingegebene Befehle reagieren“, sagt Tanja Schultz. Die Informatik-Professorin, eine der führenden deutschen Expertinnen für Computer mit Charakter, leitet den Lehrstuhl für Kognitive Systeme am Karlsruher Institut für Technologie.

Affective Computing – Informatik mit Gefühl – heißt der neue Techniktrend, der in alle Lebensbereiche vordringt: von der Bildung über die Pflege alter Menschen, von der Unterhaltung über Marktforschung bis zum Automobilbau. So hat etwa der Autohersteller Audi mit Forschern des Massachusetts Institute of Technology (MIT) den Affective Intelligent Driving Agent entwickelt. Aida erkennt Fahrverhalten und Gewohnheiten des Nutzers, überwacht den Verkehr und kommuniziert durch ein Robotergesicht am Armaturenbrett. Das zwinkert dem Fahrer fröhlich zu, wenn Aida eine besonders zügige Route ermittelt hat und lässt den Kopf hängen, wenn im Feierabendstau nichts mehr geht. „Ziel war ein System, das Tipps gibt wie ein kluger, freundlicher Beifahrer“, sagt Carlo Ratti, der Chef des Senseable City Lab am MIT.

Wie die Technik die Unterhaltungswelt revolutioniert, führt der Softwareriese Microsoft in wenigen Tagen auf der Computerspielemesse E3 in Los Angeles vor. Dort präsentiert Peter Molyneux, kreativer Kopf von Microsofts Spiele-sparte in Europa und Chef des Spieleentwicklers Lionhead, Mitte Juni neue Details zu seinem digitalen Charakter Milo, einem virtuellen Zehnjährigen. Mit dem sollen sich Besitzer der Xbox-Spielekonsole künftig zum digitalen Zeitvertreib treffen.

Schon bei Milos erstem Auftritt auf der E3 2009 hatte Molyneux die Zuschauer begeistert. Ein neues Zusatzmodul für die Xbox, genannt „Natal“, ermöglichte eine quasi reale Kommunikation zwischen dem elektronischen Teenager und dem Spieler vor dem Monitor. Über die Videokamera und das Mikrofon im Natal-Modul erkannte Milo nicht nur, woher sich Spieler nähern. Dank der Gesichtserkennung in der Software konnte der Elektrogeselle die Spielgefährten auch mit Namen ansprechen und in Dialoge verwickeln. Aus Gesichtsausdruck, Körperhaltung oder Stimmlage der Spieler schließt Milo auf deren Laune und versucht sie bei Bedarf aufzuheitern. „Gemessen am Grad emotionaler Ansprache durch Computerwesen“, sagt Molyneux, „bedeutet Milo einen bislang unerreichten Grad der Interaktion.“

Anzeige
Deutsche Unternehmerbörse - www.dub.de
DAS PORTAL FÜR FIRMENVERKÄUFE
– Provisionsfrei, unabhängig, neutral –
Angebote Gesuche




.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%