Gebrochen mit fremder Zunge

Gebrochen mit fremder Zunge

Perfekt ist auch dieses System nicht. Während der Präsentation, bei der Alex Waibel, Professor und Interact-Leiter, eine Vorlesung in Englisch hielt und das Gerätchen sich als Simultan-übersetzer versuchte, verwechselte es gelegentlich gleichlautende Wörter wie etwa «some» (einige) mit «sum» (Summe). Somit ist es mit dem Kontextverständnis der Lösung noch nicht zum Besten bestellt.
Fast wie zum Trotz arbeiten Waibels Leute an noch futuristischeren Dolmetschern. Mit «Sprachstrahlen» soll so etwa die Übersetzung an eine einzige Person im Raum gerichtet werden können, damit kein akustisches Sprachenbabel entsteht. Eine weitere Entwicklung, «Sprachbrille» tituliert, blendet das Gesagte in der eigenen Zunge als Text auf einer VR-Brille ein.
Ebenfalls recht abenteuerlich hört sich die Technik an, an der die Interact-Leute sonst noch arbeiten. So sollen künftig die Anwender eine Sprache sprechen können, ohne diese je gelernt zu haben. Zu diesem Zweck werden die Gesichtsbewegungen aufgenommen. Der Sprecher bewegt also nur die Lippen in seiner Muttersprache, und aus einem Lautsprecher ertönt - einem Bauchredner gleich - die Übersetzung.
Auch dies ist natürlich alles noch Zukunftsmusik. Derweil bekunden Spracherkennungssysteme nach wie vor Probleme, den hörbaren Output des Homo sapiens richtig zu erkennen, und erst recht damit, dessen Gequassel korrekt in eine andere Sprache zu übersetzen. Kleine Schritte sind gefragt. So arbeitet die kalifornische Firma Lumen Vox daran, eine Voice-Anwendung zu schreiben, die in einem gewissen Sinne mitdenkt. Wenn etwa ein automatisches Flugreservierungssystem die Flugnummer, die der Anwender in den Telefonhörer sagt, nicht erkennt, versucht die Software anhand der verstandenen Daten, beispielsweise Abflugort, Destination und Zeit, die Flugnummer zu erraten.



Das könnte Sie auch interessieren