Know-how 27.10.2015, 10:24 Uhr

Spracherkennung: Die Macht des Wortes

Spracherkennung gehört zu modernen Smartphones. Was früher im Gerät eingebaut wurde, funktioniert heute meist über externe Server-Lösungen.
Smartphone mit Spracherkennung
(Quelle: shutterstock.com/venimo)
Wenn jemand „OK Google“ oder „Hey Siri“ ruft, meint er meistens den Sprachassistenten seines Smart­phones, den er durch diese Worte aktivieren will. Danach folgt meist eine Frage wie „Brauche ich heute einen Regenschirm?“, auf den das Smartphone prompt mit einem Wetterbericht antwortet. Das ist keine Magie, sondern das Ergebnis von Spracherkennung.
Diese sehr anspruchsvolle Technologie ist eigentlich nicht neu und nicht auf Mobiltelefone beschränkt, sondern schon seit mehr als 15 Jahren verfügbar. Was damals auf PCs oder mit einfachen Befehlen zur Steuerung des Handys begann, ist heute ein komplexes System, das verschiedene Sprecher und sogar Zusammenhänge verstehen kann.
Bei den ersten Handy-Sprachsteuerungen, wie im Jahr 2000 im Philips Savvy, musste der Anwender noch einige bestimmte Befehle auswendig lernen und darüber hinaus sehr genau aus­sprechen, damit sie überhaupt verstanden wurden.
Bei manchen Modellen kam noch die Möglichkeit dazu, zum Anrufen einige wenige Namen aus dem internen Telefonbuch „anzulernen“, indem diese mehrmals hintereinander aufgesprochen und dann im Gerät gespeichert wurden.
Allerdings erkannte das System dann in der Regel auch nur diesen einen Sprecher, dessen Eingabe vom Chip im Handy intern mit dem gesprochenen Satz ganz genau übereinstimmen musste. All das erfolgte schließlich auf Handys, die wenig Speicher und Rechenkapazität für komplexe Vorgänge hatten.

Siri lebt im Server

Mit der Einführung von Apples Sprach­erkennung „Siri“ im Jahr 2011 änderte sich dann das grundsätzliche Arbeitsprinzip von Spracherkennung, denn das „Speech Interpretation and Recognition Interface“ funktionierte serverbasiert, also „offboard“ und nicht „onboard“.
Im Auto wie hier bei Ford ist die Sprachsteuerung zum Beispiel für die Eingabe von Navi-Zielen längst angekommen und wird gut genutzt
Quelle: Ford
Das hat den Vorteil, dass ein leistungsfähiges zentrales System die Sprache verarbeiten kann, anstatt die Hardware-Kapazitäten im Gerät des Kunden zu gebrauchen. In der aktuellen Siri-Version für iOS 9 sind dabei sogar kontextabhängige Antworten auf ganze Sätze und Voicemail-Services möglich. Auch für An­droid und Windows gibt es ähnlich leistungsfähige Offboard-Lösungen, so zum Beispiel die Mobile Cloud des Sprachsoftware-Spezialisten Nuance, die im Monat mehr als 1,2 Milliarden Anfragen verarbeitet.
Technisch muss die Spracherkennung auf zwei Ebenen funktionieren: Einmal müssen die Worte des Anwenders im Gerät überhaupt erfasst werden, im zweiten Schritt erfolgt dann auf dem Server die logische Umsetzung der Daten.
Die Spracherkennung wurde früher zunächst durch einen Tastendruck aktiviert, heute sind viele Smartphones aber auch ständig auf Zuruf aktionsbereit, da ein Co-Prozessor permanent auf solche Signale wartet. Als Erstes erfolgt eine Vorverarbeitung der analogen Sprache in digitale Signale.
Einen erfassten Befehl muss das System dann aber im Zentralrechner im nächsten Schritt auch richtig interpretieren, zum Beispiel wenn es um Wörter geht, die gleich klingen, aber eine unterschiedliche Bedeutung haben: Bei den Wörtern „Meer“ oder „mehr“ ist das durch die meist im Satz verwendeten Präpositionen noch relativ einfach, doch in einigen Sprachen kann der gleiche Klang zum großen Problem werden.
Hier kommen zum Beispiel Formeln zum Einsatz, die etwa die statistisch größte Wahrscheinlichkeit eines Wortes berücksichtigen. Auch muss das System eventuelle grammatikalische Schwächen oder regionale Dialekte erkennen und tolerieren. Für das gesamte Vokabular entsteht bei den Anbietern so eine Datenbank, die immer weiter wächst und so leistungsfähiger wird.

Neue Geräte hören zu

Dass die Spracherkennung mit ihren Möglichkeiten noch eine große Zukunft hat, ist klar: Mit immer mehr Rechen- und Speicherkapazität wird sie leistungsfähiger. Schließlich werden immer mehr Geräte am besten per Sprache gesteuert. Bei Nuance sorgen vor allem smarte Fernseher und Uhren für eine rasante Zunahme der Anfragen an den Cloud-Server.




Das könnte Sie auch interessieren