Spracherkennung: Alexa, mach das mal!

Spracherkennung und maschinelle Übersetzung verändern unzählige Geschäftsmodelle. Wie auch mittelständische Unternehmen von diesen Technologien profitieren können.
Vor nicht allzu langer Zeit noch Science-Fiction, inzwischen normal: Wir „unterhalten“ uns mit Smartphones Foto: ©Antonioguillem  – stock.adobe.com
Vor nicht allzu langer Zeit noch Science-Fiction, inzwischen normal: Wir „unterhalten“ uns mit Smartphones Foto: ©Antonioguillem – stock.adobe.com
Dr. Volker Steinbiss würde „natürlich niemals jemandem abraten, eine andere Sprache zu erlernen“. Die Beherrschung einer oder vielleicht sogar mehrerer fremder Idiome sei eine unglaubliche Bereicherung des eigenen Lebens. Doch dann kommt das große Aber: „Auf geschäftlicher Ebene wird die Notwendigkeit solcher Fähigkeiten allerdings immer mehr abnehmen“, ist er sich sicher. Folgt man dieser These, ließe sich zugespitzt formulieren: Warum jahrelang Vokabeln pauken, wenn Maschinen als zuverlässige Dolmetscher fungieren? „Im zwischenmenschlichen Bereich ist es extrem bedeutsam, miteinander reden zu können – und das gilt natürlich auch im Beruf“, so Dr. Steinbiss. Aber wenn es einfach um die Abwicklung von Einkäufen et cetera geht, um simple Transaktionen oder Absprachen per E-Mail, kommt man seiner Erfahrung nach auch mit automatischen Systemen weit. Dr. Volker Steinbiss, promovierter Mathematiker, befasst sich seit Jahren mit dieser Materie. Er ist Mitarbeiter der RWTH Aachen, genauer gesagt am Lehrstuhl für Informatik 6 von Professor Hermann Ney, der weltweit als einer der führenden Köpfe in Sachen automatischer Spracherkennung und maschineller Übersetzung gilt. Zusammengefasst unter dem Begriff „Human Language Technologies“ deckt dieser Bereich „Speech“, also die gesprochene Sprache, und „Language“, die Schriftsprache, gleichermaßen ab. Ein bekanntes Beispiel für die Spracherkennung ist Siri von Apple. Google Translate kennt man als Übersetzungshilfe bei Texten. „Das lässt sich auch miteinander kombinieren“, so Dr. Steinbiss. „Im Fernsehen spricht jemand auf Englisch, die Untertitel sind auf Spanisch.“ An beiden Technologien, so der Experte aus Aachen – der auch als Unternehmer in diesem Bereich tätig ist –, arbeiteten seit Jahrzehnten einige Tausend Wissenschaftler. „Es steckt also schon eine Menge Hirnschmalz drin und es wurde schon einiges ausprobiert.“

Popularität nimmt zu


Jeder achte Bundesbürger ab 18 Jahren (13 Prozent) nutzt bereits einen intelligenten Lautsprecher mit digitalem Sprachassistenten wie Amazon Echo, Google Home oder HomePod. Das sind nahezu 8,7 Millionen Menschen in Deutschland. Auch das Wissen um Sprachsteuerung hat sich rasant verbreitet. Vier von fünf Bundesbürgern (84 Prozent) haben schon von digitalen Sprachassistenten gehört, 2017 waren es erst zwei Drittel (69 Prozent) und 2016 gerade einmal fünf Prozent. Mehr als jeder Vierte (27 Prozent) kann sich vorstellen, zukünftig per Sprache Geräte zu steuern, und vier Prozent wollen sich in den nächsten zwölf Monaten einen Sprachassistenten anschaffen. Diese Zahlen stammen aus der Trendstudie „Consumer Technology 2018“, die der Digitalverband Bitkom und das Beratungs- und Wirtschaftsprüfungsunternehmen Deloitte im vergangenen Spätsommer vorgestellt haben. Doch während Alexa und Co. die Wohnzimmer dieser Welt erobern, um beispielweise die Wunschmusik auf Kommando abzuspielen, stellt sich der interessierte Laie die Frage, welchen Nutzen Unternehmen aus den Ergebnissen dieser Forschung und Entwicklung ziehen können. Laut Kristin Strauch wird Spracherkennung in der unternehmerischen Praxis bereits in vielfältiger Weise eingesetzt. „Vor allem im Kundenservice von B2C-Unternehmen mit hohem Kommunikationsvolumen zur Vorsortierung von Kundenanfragen bei Telefonhotlines oder bei der Bedienung von Produktionsrobotern in industriellen Produktionsprozessen“, so die Referentin für Künstliche Intelligenz Politik & Ethik beim Digitalverband Bitkom. Ein spannender Anwendungsbereich, der teilweise auch schon in der Praxis getestet werde, sei der Einsatz von Spracherkennungssystemen in der medizinischen Versorgung. „So können digitale OP-Assistenten vom Operateur per Sprache gesteuert werden, etwa weil er die Hände zum Operieren benötigt. Pflegeroboter können von Pflegebedürftigen per Sprache Befehle entgegennehmen, weil etwa die Mobilität oder Agilität eingeschränkt ist.“ In internationaler Hinsicht spielt Spracherkennung aus ihrer Sicht natürlich insbesondere im Bereich Consumer Technologies eine Rolle. „Die hohen und immer noch steigenden Absatzzahlen von Sprachassistenten führen dazu, dass Tech-Unternehmen wie Google, Amazon, Apple oder Microsoft auf der US-amerikanischen Seite sowie Baidu und Alibaba auf der chinesischen Seite große R&D-Ressourcen in die Verbesserung der Leistungsfähigkeit ihrer Sprachassistenten investieren.“ Zudem fielen durch die bereits bestehende Nutzung von Sprachassistenten immer mehr Daten an, die wiederum zum Trainieren von KI-basierten Modellen genutzt würden. Ein weiteres Einsatzgebiet von Spracherkennung sind Prozesse, „bei denen die Steuerung per Tasteneingabe nicht machbar oder ineffizient erscheint“. Da kann laut Kristin Strauch beim Bedienen von Smartwatches und sogenannten Wearables (u.a. Pulsmesser) sinnvoll sein, bei denen die Interfaces für haptische Befehlseingaben eher kleiner sind. „Letzterer Bereich wird zukünftig vermutlich noch wichtiger werden, weil auch die Beliebtheit von Wearables zunimmt.“

Sprachbarrieren überwinden


Dr. Volker Steinbiss meint, dass Firmen „in eher traditionellen Wirtschaftsbereichen“ sich dem Themenbereich nicht verschließen sollten. „Mit der maschinellen Übersetzung lassen sich Sprachbarrieren überwinden. Und das ist unabdingbar, um Geschäfte zu machen.“ Sie sei eine gute Ergänzung und erweitere die Möglichkeiten der Kommunikation. Auch in der Spracherkennung sieht er zahlreiche Nutzungsmöglichkeiten. Und wie gestaltet sich die Zukunft aus Expertensicht? Grundsätzlich ließen die recht großen Fortschritte in der Leistungsfähigkeit von Spracherkennungssystemen darauf schließen, dass in ein paar Jahren sprachbasierte Übersetzungsdienste zur Marktreife gebracht werden könnten. „Ähnlich wie der ,Babelfish’ in dem Science-Fiction-Klassiker ,Per Anhalter durch die Galaxis‘ könnte eine KI-basierte Spracherkennung in Zukunft dazu genutzt werden, das gesprochene Wort unmittelbar von einer Sprache in eine andere zu übersetzen. Bei der Texterkennung ist dies bereits jetzt möglich: Automatische Übersetzungsdienste kommen hier bereits zu überraschend guten Ergebnissen“, so Kristin Strauch. Die Fehlerraten bei der Spracherkennung würden immer weiter nach unten gehen, ist auch Dr. Volker Steinbiss überzeugt. Er verweist auf das „ungeheuerliche Innovationstempo“.

Fotostrecke

Ausgabe 04/2019