Sprachsteuerung: Ich denke, wir müssen reden

  • Drucken

„Im Anfang war das Wort, und das Wort war bei Gott“ schreibt Johannes. Knapp 2000 Jahre später soll die Sprache an neuer Stelle Wunder wirken, an der Schnittstelle von Mensch und Maschine. Die Ära des Conversational User Interface.

„Hallo Michael.“ „Hallo Kumpel. Lange ist es her.“ So könnte er sein, der erste Dialog des Revivals zwischen Michael Knight und seinem Gefährten beim Kampf für Recht und Gesetz, dem schwarzen Pontiac Firebird Trans Am K.I.T.T. Geht es nach David Hasselhoff alias Michael Knight findet die Kultserie Knight Rider, von der 1982-1986 in 4 Staffeln 90 Episoden ausgestrahlt wurden, spätestens 2019 ihre Fortsetzung. Es wäre das Wiedersehen mit einem einzigartigen Auto der Fernseh- und Filmgeschichte, das selbst fahren, denken und sprechen kann.

Was in den 1980ern bestenfalls eine kultig-kauzige Idee war, scheint aus heutiger Sicht auf mehreren Ebenen visionär gewesen zu sein. „Es ist die nächste logische Stufe in der Entwicklung der Schnittstellen zwischen Mensch und Maschine“, sagt 2018, 36 Jahre nach der Fernsehserie, Max Koziolek von Spectrm. Der Gründer des Berliner Medien Startups und Facebook-Partners spricht von sprachbasierten Benutzerschnittstellen, den so genannten Conversational User Interfaces: „Wir bewegen uns von 'Ich klicke hier' hin zu 'Ich rede mit dir'“, brachte es Koziolek kürzlich in einem Interview mit Die Zeit auf den Punkt.

Grundsätzlich steht der Begriff Conversational User Interface (CUI) für Schnittstellen, die Nutzer die Möglichkeit geben, mit datenverarbeitenden Systemen in Dialog zu treten, ob nun per Sprachbefehl (Virtueller Assistent) oder textbasiert (Chatbot). Siri (Apple), Cortana (Microsoft), Google Now oder Alexa (Amazon) heißen die der Öffentlichkeit bekannten Stars am CUI-Himmel, die als digitale, mit dem Internet verbundene Assistenten auf Sprachsteuerung erstaunlich präzise reagieren. Dass sich langsam aber sicher das gesprochene Wort in der Kommunikation durchsetzt, überrascht die Experten nicht. „Bots, die vor allem auf Texteingaben reagieren, sind nur Ausdruck einer Übergangsphase. Was die Menschen wirklich wollen, sind Werkzeuge, um Aufgaben in einer bekannten und komfortablen Umgebung erledigen zu können: in einer Unterhaltung“, schreibt in einem aktuellen Blog der Open Source-Anwalt, Netzaktivist und Hashtag-Erfinder Chris Messina. „Und nichts ist natürlicher als die menschliche Sprache.“

Künstliche Intelligenz, realer Mehrnutzen
Das Unternehmen Google schließt aus aktuellen Trendanalysen, dass in zwei Jahren bereits 50 Prozent aller Google-Anfragen über Voice eingegeben werden. Ebenfalls 2020, so die etwas provokant formulierte Prognose des Marktforschungsunternehmens Gartner, werden Menschen mehr Unterhaltungen mit Chatbots führen als mit ihren Lebenspartnern. Dass diese Konversationen dann auch intelligent ablaufen, dafür sorgen gerade die vermeintlichen Segnungen der Forschung im Bereich der Künstlichen Intelligenz. Auf Fragen wird nicht nur geantwortet, Fragen werden von Maschinen auch gestellt. Die Kommunikation wird zunehmend bidirektional. Mit Euphorie betrachtet steht einer nahtlosen, sprachbasierten Interaktion zwischen Mensch und Technologie kaum noch etwas im Wege.

Für Amazon Technologievorstand Werner Vogels ist der Siegeszug eine logische Folge der intuitiven Sprachsteuerung: „Diese Technologie hilft dem Menschen, weil sie sich nach ihm richtet. In Zukunft wird die erste menschliche Interaktion mit einem digitalen System über die Sprache sein.“ Dies werde auch den Zugang zu Wissen verändern, wie Vogels kürzlich in einem Interview mit den Handelsblatt an einem konkreten Beispiel illustrierte: „Einer unserer Kunden bei Amazon Web Services ist das International Rice Research Institute auf den Philippinen. Die haben eine Datenbank gebaut, um kleinen Farmern zu helfen, Reis optimal anzubauen. Allerdings konnte das Wissen niemand nutzen, weil die Farmer weder  Smartphone noch Computer hatten. Also wurde eine sprachgesteuerte Datenbank gebaut. Der Farmer kann nun anrufen, seine Parzelle Land beschreiben und mithilfe von Machine Learning nennt das System zum Beispiel die richtige Menge an Dünger. Das funktioniert.“

Sesam, öffne dich
Rund 100 Millionen Lautsprecher mit digitalen Assistenten werden Ende 2018 im Einsatz sein, rechnen die Analysten des in Singapur stationierten Technologiemarktforschers Canalys vor. Das wären mehr als doppelt so viele wie im Jahr zuvor. 2020 könnte die Marke von 200 Millionen überschritten werden, Ende 2022 die 300 Millionen-Grenze – und das obwohl die Gerätekategorie erst 2014 am Markt etabliert wurde.

Echtzeit-Check bei der Lead-Generierung
Machen Machine-Learning & Co. weiterhin so rasante Fortschritte und werden Konversationen zwischen Mensch und Maschine immer smarter, dürfen B2B-Unternehmen von den Stimmassistenten der CUIs künftig noch mehr erwarten – vor allem was die Lead-Generierung, also die Kontaktanbahnung der Produkt- oder Dienstleistungsanbieter zu Interessenten betrifft. „Conversation-qualified Lead-Generierung ermöglicht es, die Kaufintention sowie gleichzeitig die Bedürfnisse von potenziellen Kunden hinsichtlich eines Produktes zu erfragen – und das vollautomatisiert und in Echtzeit“, sagt Markus Feigelbinder, Gründer und Chief Operating Officer (COO) des Travel Tech-Startups Fineway. Diese Methode sei wesentlich schneller, als Leads anhand anderer Sales- oder Marketingaktionen zu generieren, und sie erleichtert es vor allem, zu entscheiden, ob ein Lead qualifiziert ist oder nicht. Reale Anwendungen von CUIs im B2B-Umfeld sind zwar noch rar. Das liegt laut Feigelbinder aber auch daran, dass durch die Digitalisierung die Grenzen zwischen Berufs- und Privatleben verschwimmen: „Anforderungen an Anwendungen, die Nutzer im Privatleben stellen, übernehmen sie stetig auch für beruflich genutzte Tools. Nicht anders sieht es im Einsatz von Conversational Interfaces aus.“ Wenn intuitive und einfache Konversationen mit Maschinen Hände und Köpfe der Nutzer frei machen, entfällt der Lernaufwand für aufwendige Workflows und es bleibt mehr Raum und Zeit für wichtigere Aufgaben im Unternehmen. Firmen aller Art sollten folglich schon jetzt die Komponente ,Voice‘ für interne Prozesse und ihren Kundenservice betrachten, empfiehlt Feigelbinder: „Ansonsten verlieren sie schnell den Anschluss zu Wettbewerbern.“

Eine Empfehlung, die man auch Autoherstellern bei der Implementierung von Sprachdiensten geben könnte. Zumindest, wenn sie nicht wieder Jahrzehnte hinter filmischen Visionären hinterherhinken wollen. Kommt 2019 das Knight Rider Revival auf Netflix & Co., soll sich der Anfangsdialog nach der Vorstellung von Produzent Hasselhoff nämlich wie folgt fortsetzen: „Viele Sachen haben sich verändert, K.I.T.T.“ „Ja aber Michael: Ich kann immer noch sprechen.“ „Sorry Kumpel, alle Autos können heutzutage sprechen.“

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.