Spracherkennung: Computer lernen das Lippenlesen

Spracherkennung: Computer lernen das Lippenlesen

Manche Menschen können erstaunlich geschickt von den Lippen lesen - aber nicht perfekt. Deswegen arbeiten Wissenschaftler an Computern, die das übernehmen sollen. Ideen für die Anwendung gibt es zuhauf.

Was wäre, wenn die Bilder einer Überwachungskamera ausreichen würden, um die Worte eines Verdächtigen zu verstehen? Wenn Piloten im Rauschen des Cockpits lautlose Befehle geben könnten? Die Technik dafür erhoffen sich Forscher von Computern, die von den Lippen lesen können. Doch trotz großer Fortschritte sind die Maschinen noch nicht praxistauglich.

„Ein solches System könnte für eine ganze Reihe von Anwendungen benutzt werden“, sagt Helen Bear von der britischen University of East Anglia. Die Informatikerin und ihr Team haben ein Programm entwickelt, das ihrer Studie zufolge deutlich bessere Ergebnisse als bisherige Ansätze liefert - für eine Anwendung unter realen Bedingungen reicht es aber noch lange nicht.

Anzeige

Die Krux: Auf den Lippen sehen viele Töne praktisch gleich aus. Computer müssen lernen, die feinen Unterschiede zu interpretieren, die Menschen verborgen bleiben. Dafür braucht es kluges Training. „Die Sprache sieht bei uns allen unterschiedlich aus, also brauchen wir Modelle, die bei jedem funktionieren“, sagt Bear.

Wie klug sind die Sprachassistenten im Vergleich?

  • Zur Studie

    Quiz für Cybersekretäre: Stone Temple Consulting hat untersucht, wie viele Wissensfragen die Assistenzdienste Siri, Cortana und Google Now ausführlich und korrekt beantworten.

    Quelle: Stone Temple Consulting; insgesamt 3086 Fragen, Stand 2014

  • Google Now

    Ausführlich beantwortet: 58 Prozent

    Korrekt beantwortet: 51 Prozent

  • Siri von Apple

    Ausführlich beantwortet: 29 Prozent

    Korrekt beantwortet: 16 Prozent

  • Cortana von Microsoft

    Ausführlich beantwortet: 20 Prozent

    Korrekt beantwortet: 8 Prozent

Schon 1968 beschrieb der Science-Fiction-Klassiker „2001: Odyssee im Weltraum“ die Idee: Der Supercomputer HAL 9000 liest im Film heimlich die Lippenbewegungen von Astronauten durch eine Scheibe. Sie hatten sich eingeschlossen, damit er ihre Pläne nicht mitbekommt. „Das zeigt, wie alt das Thema ist“, sagt Tanja Schultz, Professorin für Kognitive Systeme an der Universität Bremen.

Das klassische Vorgehen: Der Computer identifiziert auf einem Video den Bereich der Lippen. Während der Sprecher redet, nimmt das Programm Aussehen und Abfolge der Bewegung (Viseme) sowie die geäußerten Laute (Phoneme) auf. Im dritten Schritt wird es mit einem statistischen Modell trainiert: Wie hängen Video und Audio zusammen? Diese Lernstrategien sind ein entscheidender Teil der Forschung. „Menschen können durch gutes Training gut Lippen lesen, aber sie sind nicht perfekt“, sagt Schultz.

Sprechende HandysVideo abspielen
Sprechende Handys

Die Laute p, b und m etwa sind auf den Lippen fast nicht zu unterscheiden. Daher braucht das Programm mehr Informationen: Die vorhandenen Wörter einer Sprache schränken die möglichen Phonemketten schon ein. Weitere Hinweise geben erlaubte Satzkonstruktion und Sinn der Aussage. Hilfreich, fast schon unerlässlich: eine Datenbank mit Zusammenhängen von Audio und Text. Ein menschlicher Lippenleser kennt Ausdrücke und Redewendungen seiner Sprache und den Kontext einer Unterhaltung - für Computer ist das schwieriger.

Auch von Sprecher zu Sprecher gibt es große Unterschiede. „Salopp gesagt: Manche kriegen die Zähne nicht auseinander“, sagt Schultz. Schon so sollte die Aussprache möglichst deutlich, die Sätze grammatikalisch korrekt und nicht umgangssprachlich sein. „Je spontaner Sprache gesprochen wird, umso schwieriger ist sie zu erkennen.“ Und: Manche Sprachen sind einfacher als andere. Gut ist eine große Zahl an Konsonanten - Vokale ähneln sich stark. Fatal ist es, wenn die Tonhöhe in der Sprache eine Bedeutung ausmacht.

Die Entwicklungsstufen Künstlicher Intelligenz

  • 1950 - Alan Turing

    Der britische Informatiker entwickelt den nach ihm benannten Test. Er soll ermitteln, ob eine Maschine denken kann wie ein Mensch. Ein russischer Chat-Roboter soll ihn 2014 erstmals bestanden haben.

  • 1956 - Dartmouth-Konferenz

    Experten einigen sich auf den Begriff "Künstliche Intelligenz". Der Rechner IBM 702 dient ersten Forschungen.

  • 1974 - Erster KI-Winter

    Katerstimmung bei den Forschern: Die Fortschritte bleiben hinter den Erwartungen zurück. Computer sind zu langsam, ihre Speicher zu klein, um die Daten von Bildern oder Tönen zu verarbeiten. Budgets werden gestrichen, erst ab 1980 geht es wieder voran.

  • 1997 - Deep Blue

    Der Supercomputer von IBM siegt im Schachduell gegen Weltmeister Garry Kasparov. Die Maschine bewertete 200 Millionen Positionen pro Sekunde. 2011 siegt IBMs Software Watson in der Quizsendung "Jeopardy".

  • 2005 - Ray Kurzweil

    Der KI-Forscher sagt in einem Buch für das Jahr 2045 den Moment der "Singularität" voraus: Die Rechenleistung aller Computer erreicht die aller menschlichen Gehirne. Seit 2012 arbeitet Kurzweil für Google an KI-Systemen.

  • 2014 - KI-Boom

    Ein Google-Programm beschreibt präzise in ganzen Sätzen, was auf Fotos zu sehen ist. Nahrungsmittelkonzern Nestlé kündigt an, 1000 sprechende Roboter namens Pepper in seinen Kaffeeläden in Japan als Verkäufer einzusetzen. Physiker Stephen Hawking warnt: KI könne eines Tages superschlau werden – und die Menschheit vernichten.

  • 2045 - Roboter-Revolution

    Computer sind schlau wie Menschen – und machen sogar Witze. Fabriken, Verkehr und Landwirtschaft sind nahezu komplett automatisiert.

Forscher hoffen: Ein zuverlässiges Programm könnte bei der Aufklärung von Straftaten anhand von Überwachungsvideos helfen, eine bessere Verständigung von sprach- und hörbehinderten Menschen ermöglichen, als digitaler Assistent im Stil von Apples Siri und Microsofts Cortana arbeiten - oder die Identität von Menschen feststellen.

Um Nutzernamen, Geheimwörter und PIN überflüssig zu machen, schlägt Ahmed Hassanat von der jordanischen Mutah-Universität lautlose Passwörter vor: schwer abzufangen und nützlich bei lauter Umgebung. Zur Identifikation am Bankautomaten oder im Online-Shop würde es reichen, allein die Lippen zu bewegen. Nötig wäre nur eine Kamera, kein spezielles Equipment wie etwa für Fingerabdrücke. Experimente zeigten bereits das Potenzial zur praktischen Umsetzung.

Cortana, Siri, Google Now Sprachassistenten verändern unser Leben

Mit Windows 10 erobern sprachgesteuerte Assistenten auch den PC. Das verändert das Zusammenspiel von Mensch und Maschine radikal. Computer lernen, den Menschen zu verstehen.

Cortana, Siri, Google Now: Sprachassistenten verändern unser Leben

Doch noch erreicht kein Programm eine hohe Trefferquote - erst recht nicht, wenn die getesteten Sprecher einfach drauflosreden. Vielversprechend sei der Einsatz lernfähiger künstlicher Intelligenz, die sich an biologische Vorbilder anlehnt, sagt Schultz. Ein Team um Michael Wand von der Fachhochschule der italienischen Schweiz erreicht mit sogenannten tiefen neuronalen Netzen eine deutlich bessere Worterkennung als mit herkömmlichen Methoden, allerdings bei begrenztem Wortschatz.

Und parallel wird auch an anderen Ansätzen geforscht, die ohne Audio-Signal auskommen: Spracherkennung durch Messung der Muskelaktivität in Gesicht und Hals, Ultraschallbilder der Zunge oder Verfolgung der Hirnaktivität selbst - Schultz zufolge aber eher unpraktisch, da bisher nur am offenen Schädel möglich.

Anzeige
Deutsche Unternehmerbörse - www.dub.de
DAS PORTAL FÜR FIRMENVERKÄUFE
– Provisionsfrei, unabhängig, neutral –
Angebote Gesuche




.

Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%