Neue Generation von Sprachsteuerung im Auto
Touchscreen, Gestensteuerung oder konventionelle Schalter? Das ist bald von gestern. Glauben zumindest einige Entwickler. Sie setzen bei der Bedienung für das Auto von morgen auf eine neue Generation von Sprachsteuerung und wollen Alexa & Co. integrieren.

Zweitbegabung: Der nachrüstbare digitale Assistent Chris von German Autolabs für die Frontscheibe soll künftig nicht nur auf Sprachbefehle reagieren, sondern auch auf Gesten. Foto: German Autolabs/dpa
Von Thomas Geiger
Hannover/Berlin (dpa) - Der Dialog zwischen Mensch und Maschine kommt so langsam in Fahrt. Nachdem sich viele Anwender lange gesträubt haben, mit technischen Geräten zu sprechen wie mit alten Bekannten, haben virtuelle Assistenten wie Siri den Weg für Sprachkommandos bereitet. Mittlerweile funktioniert das mit Alexa von Amazon und Home von Google auch im Haushalt oder im Büro. Als nächstes ist das Auto dran. "Denn die Sprachsteuerung ist eines der Konzepte, mit dem wir auch komplexe Systeme im Fahrzeug einfach und unkompliziert bedienen können", sagt Ergonomie-Experte Guido Meier-Arendt vom Zulieferer Continental.
Zwar kann es für ihn nie nur eine alleinige Lösung geben, weshalb er auf absehbare Zeit auch ein paar Tasten noch die Treue hält. "Doch mit deutlich verbesserter Technik und einem von den Smartphones veränderten Verhaltensmuster bei den Nutzern wird das gesprochene Wort im Fahrzeug in Zukunft deutlich mehr Gewicht bekommen." Dabei arbeiten die Fahrzeughersteller und ihre Zulieferer zweigleisig: Zum einen wollen sie ihre eigenen Sprachbediensysteme verständlicher gestalten, das Vokabular vergrößern und ohne auswendig gelernte Befehle auskommen. So reicht bei Ford Sync mittlerweile die Aussage "Ich habe Hunger", um vom Navigationssystem die nächsten Restaurants entlang der Route gezeigt zu bekommen.
"Das Zauberwort dafür heißt natürlichsprachliche Eingabe", erläutert Arnd Weil, der beim IT-Konzern Nuance das Automobilgeschäft leitet. "Als die Sprachsteuerung vor 20 Jahren kam, konnte sie vielleicht 20 Vokabeln", sagt Weil. Zehn Jahre später waren es 70 000 und heute seien es mehrere Millionen. "Wenn man bedenkt, dass der durchschnittliche Deutsche mit einem aktiven Wortschatz von 4000 Vokabeln durch den Tag kommt, kann man da wohl von schon von flüssiger Sprache reden." Deshalb muss sich bei solchen Systemen niemand mehr durch Kommandozeilen und Befehlsketten hangeln, sondern spricht einen vergleichsweise normalen Monolog und das Auto pickt sich die entsprechenden Schlüsselworte heraus. "Nicht der Mensch, sondern die Technik muss Vokabeln lernen, wenn das System erfolgreich sein soll", sagt Weil.
Parallel dazu integrieren die ersten Autohersteller allerdings auch externe Sprachsteuerungen: So haben zuletzt Audi und Volvo am Rande der Google-Entwicklerkonferenz I/O angekündigt, dass sie in kommenden Fahrzeugen das Betriebssystem Android Auto und mit ihm die Sprachsteuerung des Google Assistenten einbauen wollen. Dann kann man nicht nur Anrufe mit Sprachsteuerung tätigen, Navigationsziele eingeben oder Nachrichten diktieren, sondern Fenster öffnen oder das Klima auf Kommando regeln, lassen die Entwickler durchblicken.
Auch Amazons virtueller und sprachgesteuerter Assistent Alexa geht unter die Autofahrer. So hat zum Beispiel VW eine Partnerschaft mit dem Online-Händler angekündigt und Anfang des Jahres skizziert, wie man aus dem Auto heraus mit Hilfe von Alexa daheim die Jalousien öffnen oder die Vorräte im Kühlschrank überprüfen kann. Den umgekehrten Weg stellt Mercedes in Aussicht: Der Stuttgarter Hersteller will nach eigenen Angaben noch im Lauf des Jahres seine Fahrzeuge auf den ersten Märkten für den Dialog mit Alexa und Google Home so freischalten, dass man über diese Systeme von zu Hause aus zum Beispiel bereits Navigationsziele in den Wagen schicken oder den Benzinvorrat überprüfen kann.
Eine andere Form von Sprachbedienung propagieren die Hersteller mit ihren Infotainment- und Telematik-Portalen wie Mercedes Me, BMW Connected Drive oder Opel Onstar. Auch dort kann man sich auf Knopfdruck im natürlichen Dialog etwa Sonderziele heraussuchen und das Navigationssystem programmieren lassen. Mit zwei entscheidenden Unterschieden: Die Intelligenz dafür ist nicht im Wagen, sondern am anderen Ende der Hotline. "Und man hat es mit einem Menschen zu tun, statt mit einer Maschine", sagt Opel-Sprecher Michael Blumenstein. "Missverständnisse sind deshalb seltener und lassen sich leichter ausräumen."
Neuwagen-Käufer können sich auf gesprächige Zeiten einstellen. Doch geht es nach Holger Weiss und Patrick Weissert, müssen auch die Fahrer älterer Autos nicht länger den Mund halten. Die beiden sind die Gründer des Berliner Start-ups German Autolabs und haben eine Nachrüstlösung entwickelt, mit der sie das Infotainment in älteren Fahrzeugen radikal vereinfachen wollen. "Nicht umsonst liegt das Durchschnittsalter der Privatfahrzeuge in Deutschland bei neun Jahren", sagt Weiss. Als Alternative zu Alexa & Co schickt ihr Start-up deshalb bald Chris ins Rennen: Einen digitalen Assistenten, der über intelligente Spracherkennung sowie Gestensteuerung den Zugriff auf das Smartphone auch während der Fahrt einfach, bequem und vor allem sicher ermöglichen soll.
Über Bluetooth oder bei älteren Fahrzeugen über UKW mit dem Hifi-System des Autos auf der einen und dem Smartphone des Benutzers auf der anderen Seite verbunden, bietet Chris Zugriff auf die wichtigsten Apps, so Weiss. Das mit einem Saugnapf an der Scheibe befestigte Gerät mit Display übernimmt das Messaging mit E-Mails, SMS, WhatsApp & Co, organisiert auf Zuruf Telefonate, übernimmt die Navigation und spielt die Lieblingsmusik des Fahrers von Spotify. Das System soll im Februar 2018 für rund 300 Euro auf den Markt kommen.