Navigationssysteme bald mittels Sprache gesteuert

Wo vor wenigen Jahren noch ein simples Autoradio platziert war, sind inzwischen Mobiltelefone und Navigationssysteme fast schon Standard. Die Multimediafahrzeuge haben aber auch Nachteile: So hat die amerikanische Verkehrssicherheitsbehörde festgestellt, dass 20 bis 30 % der Autounfälle von abgelenkten Autofahrern verursacht werden. Manuell zu bedienende Geräte im Auto als Sicherheitsrisiko. Eine Lösung können Sprachbediensysteme sein.

Spracherkennung boomt

In naher Zukunft werden neue Entwicklungen deutlich komplexere Spracherkennungssysteme als heute ermöglichen. Der Entwicklungsaufwand für diesen neuen Markt lohnt sich: Nach einer Studie wird allein die Temic (Telefunken microelectronics) in diesem Jahr etwa 270.000 Systeme integrieren, nach knapp 180.000 im letzten Jahr und etwa 60.000 im Jahre 1999.

Zuschlagen der Tür ist Kommando

Im Gegensatz zu Sprachverarbeitungssystemen im Büro herrschen im Fahrzeug andere technische Randbedingungen: der relativ hohe Geräuschpegel und der große Abstand zum Mikrofon erschweren die Bedienung. So interpretiert die Spracherkennung möglicherweise ein Zuschlagen der Tür als Worteingabe. Ein wichtiges Element ist deshalb die Erkennsicherheit, die derzeit bei etwa 90 % liegt. Dies ergab ein Test bei DaimlerChrysler mit 800 Personen, die bei alltäglichen Autofahrten ein Sprachbediensystem steuerten.

Erkennungsrate relativ gering

Alle Spracherkennungsanbieter arbeiten an einer besseren Erkennungsrate und einer Vergrößerung des Vokabulars. Heute übliche Sprachsteuerungen sind Ziffernwahl, Namenswahl, Mailbox-Steuerung, Memo-Recorder oder Kommandos für Radio, CD-Wechsler oder Kassette. „Im Vergleich zu Diktiersystemen sind derzeit im Fahrzeug nur relativ kleine Wortschätze realisierbar, denn Störgeräusche behindern die Erkennungsrate. Zudem beschränken die relativ hohen Kosten für Speicherplatz und Rechenleistung das Einsatzpotenzial „, erklärt Gerhard Nüßle, Entwicklungsleiter für Sprachverarbeitung bei der Temic.

Vorbildliche Sprachsteuerung bei der Bahn

Wie gut eine „geräuscharme“ Spracherkennung sein kann, zeigt die Zugauskunft bei der Deutschen Bahn, die über einen Server im öffentlichen Telefonnetz verfügbar ist. Seit zwei Jahren in Betrieb verzeichnet man mittlerweile mehr als 100.000 Anrufe im Monat. Das vorhandene Vokabular von 6000 Bahnhöfen entspricht dabei etwa 10.000 Phrasen. Das servergestützte System könnte als Vorbild für die sprachgesteuerte Navigation dienen.

Von den Lippen lesen …

Der Computer hat enorme Probleme bei ähnlich klingenden Wörtern: Gasse, Kasse; Pfarrer, Fahrer. Um diese Erkennungsprobleme abzustellen, versucht man die Wortbedeutungen im logischen Zusammenhang zu erschließen. Das MIT (Massachusetts Institute of Technology) ergänzt dieses Verfahren mit einem optischen System, dass aus den Lippenbewegungen Wörter ableiten kann. Die Wissenschaftler gehen für die englische Sprache von 16 Lippenstellungen aus. Eine Videokamera nimmt die Lippenbewegungen auf und vergleicht sie mit hinterlegten Mustern. Kombiniert mit der akustischen Erkennung erhofft man sich eine deutlich verbesserte Erkennungsrate. In der Praxis hat diese Methode aber den Nachteil, dass der Autofahrer ständig Richtung Kamera sprechen muss.

50000 Ortsnamen in Deutschland

Das US-Unternehmen Navtech Technologies Corp. erwartet, dass bis 2005 die Mehrheit aller Fahrzeuge mit Onboard-Navigationssystemen sprachgesteuert sein wird. NavTech liefert nach eigenen Angaben Karten mit höchster Genauigkeit, Tiefe und Zuverlässigkeit. Auf dieser Grundlage müssen Navigationssysteme eine hohe Zahl von Vokabeln für die Zieleingabe ermöglichen. Allein in Deutschland gilt es etwa 50.000 Ortsnamen zu erfassen, dazu stehen zum Beispiel in Berlin 9000 Straßennamen zur Auswahl. Sprachverarbeitungsexperte Gerhard Nüßle: „Diese Datenmengen können derzeit noch nicht zufriedenstellend verarbeitet werden“. Doch schon im nächsten Jahr sollen die ersten Sprach-Navigationssysteme am Markt verfügbar sein, die dann über beispielsweise Postleitzahlen, Großraumbereiche oder Buchstaben steuerbar sind.

In 800 Städten liegen 90 % der Ziele

Heutzutage ist die interne Verarbeitung des aktiven Vokabulars auf etwa zwei- bis dreitausend Wörter beschränkt. Deshalb muss die Eingabe der Navigationsziele in einem simplen Dialog erfolgen. Um eine kleinere Vokabelmenge zu erreichen, nutzen die Wissenschaftler die Tatsache, dass in den 800 größten Städten fast drei Viertel der Bevölkerung wohnen. Da die Navigationssysteme meist geschäftlich genutzt werden, entspricht dies wahrscheinlich über 90 % der möglichen Ziele.

Kombinierte System weisen den Weg

Die ComROAD AG, Spezialist für Telematik-Netzwerke, und CONVERSAY, führend bei Sprachtechnologie für mobile und internetbasierte Einheiten, haben die Software „Voicecom“ in einen Server integriert. Die Technologie-Allianz soll den sprachgesteuerten Zugriff auf das riesige Angebot an Telematik-Diensten ermöglichen, das heute über das ComRoad-GTTS (Global Transport Telematic System) verfügbar sind. Schon auf der CeBIT präsentierte man einen Chrysler PT Cruiser, in dem Verkehrsinformationen, Wetter, Finanzdaten oder Sportnachrichten erstmals über Sprachsteuerung abgerufen werden können.

Portale werten die Kommandos aus

Um die Schwächen der Systeme auszugleichen, müssen die Sprachkommandos schon im Fahrzeug bearbeitet werden. Relativ aufwändige Verfahren zur akustischen Vorverarbeitung sollen die Verluste im Sprachsignal auffangen. Über einen Server, der beispielsweise im neuen Portal von Mercedes-Benz oder BMW steht, erfolgt dann die Auswertung. Die Übertragung dorthin erfolgt nicht mehr als Sprache, sondern als komprimierte Datei mit einer Übertragungsrate von weniger als 4800 Bit pro Sekunde.

VW entwickelt in VODIS

Ein sprachgestütztes Assistenzsystem entwickelt Volkswagen mit „VODIS“ (Voice Operated Driver Information System). Ziel des VODIS-Projektes ist die Spracherkennung für die aktive Sicherheit zu nutzen. Der Autofahrer soll den Blick auf der Straße und die Hände am Lenkrad behalten und dennoch alle Informations- und Unterhaltungssysteme betätigen können. Um VODIS in vollem Umfang nutzen zu können, muss der Fahrer insgesamt 44 festgelegte Kommandoworte zur Spracheingabe beherrschen.

Philips hat Superchip parat

„Die eigentlichen Herausforderungen für die Sprachsteuerung und -erkennung liegt in nächsten Jahre in der Steuerung der Navigation“, erklärt Gerhard Nüßle. Dies beginnt bei der Hardware. So präsentiert Philips den neuen Spracherkennungschip „Hello IC“. Nach Angaben des Unternehmens soll dies der weltweit innovativste und kostengünstigste Spracherkennungschip für Befehls- und Steueranwendungen sein. Er kann bis zu 100 Wörter interpretieren, 50 Wörter können gleichzeitig aktiv sein. Auf dem Chip gespeichert ist die Spracherkennungssoftware „VoCon“ und eine Rauschunterdrückungs-Software, die somit keinen externen Speicher benötigen. Damit hat Philips einen Chip für vielfältigen Einsatz entwickelt: für den Freisprechbetrieb von Autoradio, Handy oder Klimaanlage. Ende nächsten Jahres soll die großflächige Einführung stattfinden. In Verbindung mit leistungsfähigen Prozessoren ist auch der Einsatz in Navigationssystemen geplant.

Standard ist dringend erforderlich

Die dynamische Entwicklung im Internet und bei Mobilfunksystemen forcieren den Einzug netzwerkbasierter Dienste im Fahrzeug. Denn der Autofahrer will künftig während der Fahrt verschiedene Voice Portale auf einem Server verfügen. Ingenieure entwickeln mit Hochdruck unterschiedliche Systeme. Doch schon während der Entwicklung tauchen neue Probleme auf. Bei Markteinführung werden die Systeme einen sehr viel kürzeren Lebenszyklus haben als das Fahrzeug. Sprachverarbeitungsexperte Nüßle: „Eine Standardisierung der Schnittstellen zu diesen Diensten ist deshalb dringend erforderlich“. Sonst sind die neuen Dienste nicht realisierbar.


Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert