print logo

Computersteuerung mit Zeigefinger, Gestik, Mimik und Sprache

Elektronische Geräte bedienen ohne Technostress
Gunnar Sohn | 18.06.2007
Berlin/Bonn, 18. Juni 2007 - Computer beherrschen immer mehr Funktionen - doch viele Anwender blicken schon heute bei ihrem Handy nicht mehr durch. Professor Wolfgang Wahlster, Leiter des Deutschen Forschungszentrum für Künstliche Intelligenz GmbH (DFKI) http://www.dfki.de und Schirmherr der Bonner Voice Days http://www.voicedays.de, arbeitet daran, dass sich der Computer dem Menschen anpasst. „Die Überflutung der Geräte mit Funktionen, die selten benötigt werden, ist in der Tat ein großes Problem. Das wird sich aber in Zukunft verbessern. Wir arbeiten daran, dass sich die neuen Multifunktionsgeräte, mit denen man telefonieren, fernsehen und im Internet surfen kann, intuitiv bedienen lassen“, so Wahlster. Die Technik werde zwar immer komplexer, dass dürfe aber nicht zu Lasten des Anwenders gehen.



Computer, Handys, Maschinen und Haushaltsgeräte sollen immer intelligenter auf die Befehle des Menschen reagieren. Eine Variante ist das Multi-Touch-Display des iPhone von Apple, das Ende Juni an die Mobilfunkgesellschaft AT&Tausgeliefert wird. Gesteuert wird es statt über Tasten oder Stift mit dem laut Apple-Chef Steve Jobs „ultimativen Zeigegerät": dem menschlichen Finger. „Ein Wisch mit dem Zeigefinger, schon blättert sich das Adressbuch auf. Werden Daumen und Zeigefinger aufeinander zu bewegt, wird die Schrift oder ein Foto verkleinert, die entgegengesetzte Bewegung vergrößert sie. Entwickelt wurde die Technik vom Multi-Touch-Pionier Fingerworks, den Apple 2005 übernahm. Jobs will die Technik auch für andere Produkte nutzen, für iPods und Computerdisplays“, schreibt die Wirtschaftswoche. Die neue Art, Computer zu bedienen sei mehr als eine Masche der Elektronikindustrie. Nach Prognosen von Chris North, Professor für Computerwissenschaften an der Virginia Tech-University in Blacksburg http://www.vt.edu, gehören Tastatur und Computermaus in einigen Jahren der Vergangenheit an. „Bestimmte Funktionen am PC lassen sich sehr leicht mit Gesten steuern. Der Nutzer bewegt sich dann entlang des Displays durch den Raum oder er greift bei Hologrammen auch mal in die Darstellung hinein, um benötigte Informationen auszuwählen“, so North im Interview mit der Wirtschaftswoche.



Wer Textdokumente bearbeitet, werde auch künftig mit Tastatur und Maus arbeiten. „Aber in anderen Bereichen werden die neuen Techniken kommen, wenn wir in einer zunehmend vernetzten Welt in allen Lebenslagen - sichtbar oder unsichtbar - von Rechnern umgeben sein werden. Sei es im Büro, beim Autofahren, beim Kochen oder beim Sport. Da werden Maus und Tastatur schnell sehr störend und sind die Alternativen praktischer. Dank der Leistungsexplosion in der IT werden wir Geräte künftig zunehmend über Sprachbefehle steuern. Dann werden wir auch kleine Kontrollgeräte wie Smartphones oder Organizer für die Computersteuerung nutzen“, ist sich North sicher.



Auch in Deutschland hat man die Potentiale der Sprachsteuerung erkannt, die über Call Center-Anwendungen hinausgeht. Mit dem vom Bundesministerium für Bildung und Forschung http://www.bmbf.de mit rund 14 Millionen Euro geförderten Projekt Smartweb http://www.smartweb-projekt.de haben namhafte Forscher aus den Bereichen der Intelligenten Benutzerschnittstellen und des Semantischen Webs in Zusammenarbeit mit dem Deutschen Forschungszentrum für Künstliche Intelligenz http://www.dfki.de in Saarbrücken und Kaiserslautern die Sprachansteuerung von Webdiensten im Pkw verwirklicht. So können Parkrauminformationen, Wetter oder Verkehrslage abgefragt werden. Als Weltneuheit gelten Sprachdialoge, die verschiedene Internetdienste automatisch verknüpfen, beispielsweise die Frage nach möglichen Restaurants in der Innenstadt mit der Wegbeschreibung zu dem daraufhin ausgewählten Ziel. An SmartWeb arbeiteten insgesamt 16 Partner aus Wirtschaft und Wissenschaft zusammen.

Weitere Einsatzmöglichkeiten der Spracherkennung im Auto werden folgen, meint Lupo Pape, Geschäftsführer von SemanticEdge http://www.semanticedge.de in Berlin: „Im Automobil steht die Spracherkennung noch ganz am Anfang. Ein Hauptproblem waren bisher immer die Rahmenbedingungen. Insbesondere die verfügbare Hardware war nicht ausreichend, um eine leistungsfähige Spracherkennung, eine sehr natürliche Sprachsynthesestimme und eine intelligente Dialogmanagementkomponente für die flexible Steuerung der Dialoge unterzubringen, die heute beispielsweise schon in den serverbasierten Anwendungen der neuesten Call Center zur Verfügung steht.“ Ein Server im Auto dürfe nur etwa 50 Euro in der Beschaffung kosten, müsse mehr als zehn Jahre bei extremen Temperaturbedingungen aushalten, staub- und feuchtigkeitsresistent sein. Bei Hard- und Software habe sich in den vergangenen zwei Jahren viel getan, so Pape: „Die Sprachsteuerung oder die nächste Stufe, multimodale Anwendungen, wo es neben dem Sprachinterface auch noch einen graphischen Touchscreen gibt, werden immer mehr im Auto eingesetzt, sei es auf PDAs, portablen Navigationssystemen, die zum ständigen Begleiter auch außerhalb des Autos werden oder bei der nächsten Generation der On-Board-Systeme.“ Für die Spracherkennung im Auto spreche auch der Sicherheitsaspekt der „hands-free-Bedienung“, ebenso die Limitation des Armaturenbretts, deren Funktionen und Anzeigen immer umfangreicher werden. Daher sei ein intuitives Interface unabdingbar, um das alles zu beherrschen, aber auch, um der Kreativität der Automobil-Entwickler keine Fesseln anzulegen.



Innovative Sprachanwendungen könnten zudem ein ständiger virtueller Begleiter des mobilen Menschen sein. Der Personal Assistant, wie ihn SemanticEdge für DaimlerChrysler entwickelt hat, kennt das persönliche Adressbuch seines Nutzers und baut nach einer Spracheingabe wie etwa „Martin Meyer Handy“ sofort die entsprechende Verbindung auf. Er versendet SMS, wenn ein Anruf nicht zustande kommt. Er liest E-Mails während der Fahrt vor und sucht den nächsten Zug für die Weiterfahrt mit der Bahn. „Per Spracheingabe können die Mitarbeiter auch eine Routing-Funktion nutzen, alle Anrufe umleiten, so dass sie auf einer bestimmten Nummer zu erreichen sind. Durch den Personal Assistant wird die Spracherkennung ständig präsent und auch im Auto unerlässlich“, sagt Pape. Gesprochene Sprache sei nun einmal die natürlichste Schnittstelle und sie hat enorme Vorteile beim Zugriff auf eine Vielzahl von Funktionen.





Redaktion
medienbüro.sohn
Ettighoffer Straße 26 A
53123 Bonn
Tel: 0228 – 620 44 74
Fax: 0228 – 620 44 75
Mobil: 0177 620 44 74
medienbuero@sohn.de;
http://www.ne-na.de

Img of Gunnar Sohn
Über Gunnar Sohn

Gunnar Sohn ist Freiberufler und u.a. Wirtschaftspublizist, Buchautor, Blogger, Medienberater, Moderator und Kolumnist.