Die Probleme von Alexa, Siri und Google Assistant Warum Spracherkennung so schwierig ist

Seite 3/3

Mit bessere KI gegen das Sprach-Wirrwarr

Informatiker und Elektrotechniker hatten lange Zeit ein Problem: Mit den Methoden, die sie zur Mustererkennung genutzt haben, konnten sie zwar gut mit der unterschiedlichen Aussprache umgehen, die unterschiedliche Sprechgeschwindigkeit bereitete jedoch häufig noch Probleme.

In den letzten Jahren gab es aber Entwicklungen, die genau dieses Problem lösen sollen. Im Bereich des Maschinellen Lernens, also bei Systemen, die selbstständig Muster erkennen und daraus Schlüsse ziehen,  gab es enorme Fortschritte. Insbesondere die Technologie künstlicher neuronaler Netze, die versucht die Funktionsweise des menschlichen Gehirns nachzuahmen, ist deutlich effizienter geworden. Deshalb stellt sie nun den Stand der Technik dar, wenn es darum geht, Sprache zu analysieren.

Mehr Daten für mehr Verständnis

Außerdem gibt es inzwischen deutlich mehr Daten, mit denen die künstlichen neuronalen Netze lernen können, wie natürliche Sprache klingt. „Dank dieser Fortschritte bewegen sich die Systeme inzwischen ansatzweise in Bereichen, die an die Erkennungsleistung von Menschen heranreichen“, erläutert Kolossa. „Dadurch ist erstmals dazu gekommen, dass es wirklich Spaß macht, Spracherkennung zu nutzen.“

Nützlich und absurd: Die Amazon Skills

Neben den Mikros können bei der Erkennung von „gestörter“ Sprache auch maschinelles Lernen und eine gute Datengrundlage hilfreich sein. Denn je besser ein System weiß, wie sich Wörter mit vielen Hintergrundgeräuschen anhören, desto besser kann es diese dann auch herausfiltern.

Was Spracherkennung bald leisten kann

Nach den Erfolgen der letzten Jahre kann sich Spracherkennungsexpertin Kolossa gut vorstellen, dass wir mit Maschinen in ein paar Jahren natürliche Gespräche führen – zumindest, wenn der Kontext klein genug ist. „Wenn es zum Beispiel darum geht, den Radiosender einzustellen, oder das Navi zu bedienen, dürften wir relativ schnell an dem Punkt sein, an dem wir nicht mehr aufgrund eins stockenden Gesprächsverlaufs spüren, dass wir uns mit einer Maschine unterhalten.“

Skeptischer ist sie jedoch, wenn Computer in einem Gespräch menschliches Verhalten einschätzen sollen, sie zum Beispiel erkennen müssen, ob ihr Gegenüber das Gesagte wirklich verstanden hat. „In solchen Situationen braucht es ein gutes Konzept dafür, wie menschliches Denken funktioniert. Während uns das aufgrund unserer eigenen Erfahrungen relativ leicht fällt, haben Maschinen damit deutlich mehr Probleme.“

Dafür dass sich die Spracherkennung in den nächsten Jahren verbessert, dürfte auch die gewachsene Zahl an Produkten mit digitalen Assistenten beitragen. Denn je mehr Menschen mit Siri und Co. interagieren, desto mehr lernen sie darüber wie wir sprechen und können uns in Zukunft besser verstehen – und das Licht anschalten.

Inhalt
Artikel auf einer Seite lesen
© Handelsblatt GmbH – Alle Rechte vorbehalten. Nutzungsrechte erwerben?
Zur Startseite
-0%1%2%3%4%5%6%7%8%9%10%11%12%13%14%15%16%17%18%19%20%21%22%23%24%25%26%27%28%29%30%31%32%33%34%35%36%37%38%39%40%41%42%43%44%45%46%47%48%49%50%51%52%53%54%55%56%57%58%59%60%61%62%63%64%65%66%67%68%69%70%71%72%73%74%75%76%77%78%79%80%81%82%83%84%85%86%87%88%89%90%91%92%93%94%95%96%97%98%99%100%