print logo

Sprachtechnik erleichtert das Autofahren

SemanticEdge: Potenzial von Spracherkennung im Auto ist noch längst nicht ausgeschöpft
SemanticEdge GmbH | 18.06.2007
Berlin, 18. Juni 2007 – Mit dem vom Bundesministerium für Bildung und Forschung http://www.bmbf.de mit rund 14 Millionen Euro geförderten Projekt Smartweb http://www.smartweb-projekt.de haben namhafte Forscher aus den Bereichen der Intelligenten Benutzerschnittstellen und des Semantischen Webs in Zusammenarbeit mit dem Deutschen Forschungszentrum für Künstliche Intelligenz http://www.dfki.de in Saarbrücken und Kaiserslautern die Sprachansteuerung von Webdiensten im Pkw verwirklicht. So können Parkrauminformationen, Wetter oder Verkehrslage abgefragt werden. Als Weltneuheit gelten Sprachdialoge, die verschiedene Internetdienste automatisch verknüpfen, beispielsweise die Frage nach möglichen Restaurants in der Innenstadt mit der Wegbeschreibung zu dem daraufhin ausgewählten Ziel. An SmartWeb arbeiteten insgesamt 16 Partner aus Wirtschaft und Wissenschaft zusammen.

Weitere Einsatzmöglichkeiten der Spracherkennung im Auto werden folgen, meint Lupo Pape, Geschäftsführer des dreifachen Voiceaward-Gewinners SemanticEdge http://www.semanticedge.de in Berlin: „Im Automobil steht die Spracherkennung noch ganz am Anfang. Ein Hauptproblem waren bisher immer die Rahmenbedingungen. Insbesondere die verfügbare Hardware war nicht ausreichend, um eine leistungsfähige Spracherkennung, eine sehr natürliche Sprachsynthesestimme und eine intelligente Dialogmanagementkomponente für die flexible Steuerung der Dialoge unterzubringen, die heute beispielsweise schon in den serverbasierten Anwendungen der neuesten Callcenter-Anwendungen zur Verfügung steht.“ Ein Server im Auto dürfe nur etwa 50 Euro in der Beschaffung kosten, müsse mehr als zehn Jahre bei extremen Temperaturbedingungen aushalten, staub- und feuchtigkeitsresistent sein. Bei Hard- und Software habe sich in den letzten zwei Jahren viel getan, meint Pape mit Verweis auf die mittlerweile enorme Speicherfähigkeit und Prozessorleistung eines Handys oder Smartphones „Die Sprachsteuerung oder die nächste Stufe, multimodale Anwendungen, wo es neben dem Sprachinterface auch noch einen graphischen Touchscreen gibt, werden immer mehr im Auto eingesetzt, sei es auf PDAs, portablen Navigationssystemen, die zum ständigen Begleiter auch außerhalb des Autos werden oder bei der nächsten Generation der On-Board-Systeme.“ Für die Spracherkennung im Auto spreche auch der Sicherheitsaspekt der „hands-free-Bedienung“, ebenso die Limitation des Armaturenbretts, deren Funktionalitäten und Anzeigen immer umfangreicher werden. Daher sei ein intuitives Interface unabdingbar, um das alles zu beherrschen, aber auch, um der Kreativität der Automobil-Entwickler keine Fesseln anzulegen. Nicht zufällig spricht man in Japan bereits vom One-Button-Computer, der nur ein- und ausgeschaltet wird, während alle Befehle per Sprache, Mimik und Gestik eingegeben werden.



Wichtiger Treiber der weiteren Entwicklung werden für Pape innovative Sprachanwendungen wie der „Personal Assistant“ sein, der als ständiger virtueller Begleiter die sprachgesteuerte Kommunikationszentrale des mobilen Menschen sein wird. Der Personal Assistant wie ihn SemanticEdge für DaimlerChrysler entwickelt hat kennt das persönliche Adressbuch seines Nutzers und baut nach einer Spracheingabe wie etwa „Martin Meyer Handy“ sofort die entsprechende Verbindung auf. Er versendet SMS, wenn ein Anruf nicht zustande kommt. Er liest E-Mails während der Fahrt vor und sucht den nächsten Zug für die Weiterfahrt mit der Bahn. „Per Spracheingabe können die Mitarbeiter auch eine Routing-Funktion nutzen, alle Anrufe umleiten, so dass sie auf einer bestimmten Nummer zu erreichen sind. Durch den Personal Assistant wird die Spracherkennung ständig präsent und auch im Auto unerlässlich“, prognostiziert Lupo Pape. „Gesprochene Sprache ist nun einmal die natürlichste Schnittstelle und sie hat enorme Vorteile beim Zugriff auf eine Vielzahl von Funktionen. Bis Sie die Fahrzieleingabe ‚Berlin, Kaiserin-Augusta-Allee 10’ über einen Drehdrückschalter des Navigationssystems oder ‚Spiel mir die Beatles mit Hey Jude’ in die Multimediakomponente eingegeben haben, ist vermutlich eine Minute oder mehr vergangen. Per Spracheingabe dauert das nur wenige Sekunden. Hinzu kommt, dass die Spracherkennung in diesem Jahr wieder einen großen Sprung machen wird, insbesondere auch bei der sprechergebundenen Erkennung, die sich im Auto anbietet“, erläutert der Sprachdialogexperte.



Für Rückfragen:
nic.pr
Claudia Klemp
Tel: 0228 – 620 43 82
Fax : 0228 – 620 44 75
Coburgerstr. 3
53113 Bonn
claudia.klemp@nic-pr.de