Schnellauswahl

Verstehen sie mich bitte richtig

Shutterstock
  • Drucken

Natural Language Processing – sperriger Begriff für klare Zielsetzung: Eine natürliche und effiziente Kommunikation zwischen Mensch und Maschine mit möglichst wenig Missverständnissen.

„Hast du deine Medikamente genommen?“ Mario wird es nicht müde, die Frage an den demenzkranken Patienten immer wieder und im stets gleichen, freundlichen Ton zu wiederholen. Mario steht für „Managing Active and healthy aging with use of caRing service robots“: ein Pflegeroboter, entwickelt in einem von der Europäischen Union geförderten Forschungsprojekt. Das Ziel einer dreijährigen Zusammenarbeit internationaler Wissenschaftler mit Pflegefachkräften, Krankenhäusern und Robotikfirmen war die Arbeit an menschenähnlichen Robotern, die das alltägliche Leben von an Demenz Erkrankten einfacher gestalten sollen.

„Menschen mit Demenz mögen den Roboter. Es bereitet ihnen Freude, mit ihm zu interagieren. Wir hätten erwartet, dass Mario auf mehr Skepsis stoßen würde“, sagt Siegfried Handschuh. Der Inhaber des Lehrstuhls für Informatik an der Universität Passau und sein Team konzentrierten sich auf die Anwendung von Elementen der Bedeutungsanalyse, der Text- und Sprachverarbeitung und des Data-Mining, also dem automatisierten Aufspüren von Zusammenhängen aus umfangreichen Datenbeständen. Einfacher gesagt geht es darum, ein intelligentes Verhalten zu simulieren, das natürlichsprachliche Dialoge mit den Robotern ermöglicht und sie verschiedene Aufgaben ausführen lässt. Mario etwa reagiert auf den Gemütszustand seines Gegenübers, wie Projektmitarbeiter Adamantios Koumpis an einem Beispiel erklärt: „Wenn der Roboter gelernt hat, dass die Patientin möglicherweise jeden Tag morgens weint, weil sie sich an den verstorbenen Mann erinnert, dann kann er darauf reagieren. Indem er tröstet, indem er ablenkt. Etwa, indem er Bilder von schönen Erlebnissen zeigt.“ Mario gibt es inzwischen zu kaufen, potenzielle Kunden sind Krankenhaus- und Pflegeklinik-Betreiber.

Lernen, sinnerfassend zu verstehen.

Die Passauer Wissenschaftler sind Spezialisten im Bereich des Natural Language Processing (NLP), einer Technologie, die es ermöglichen soll, dass Mensch und Maschine miteinander kommunizieren können. Mit speziell entwickelten Algorithmen lernen Computer zuallererst sinnerfassend zu verstehen, um in der Folge auch Anweisungen auszuführen. Geprägt ist NLP von der Computerwissenschaft, der künstlichen Intelligenz und der Linguistik. Es befasst sich mit der Verarbeitung der natürlichen Sprache, der Bedeutung von Wörtern und Sätzen. Im Fokus stehen weiters die Klassifizierung von Texten, die korrekte Aussprache und Betonung, die Syntaxanalyse und die Beantwortung von Fragen. Ein praktisches Beispiel für den Einsatz von NLP sind digitale Sprachassistenten wie Alexa oder Google Home für Privatkunden.

Wenn der (Ro)bot(er) plaudert.

Einen smarten Assistenten, der im Business-Bereich seine Dienste leistet, hat die auf semantische Suchmaschinen und NLP spezialisierte Wiener Softwareschmiede Deepsearch entwickelt. Deep.assist heißt das Expertentool, das die Arbeit im Callcenter erleichtern soll. Während ein Callcenter-Agent in ein Textfeld schreibt, was ihm ein Anrufer erzählt, analysiert die Software den Text, ermittelt den Sinn und stellt Lösungsvorschläge zur Verfügung. Im Laufe der Texteingabe werden zusätzlich Fragen generiert, die dem Agenten helfen, das Anliegen des Anrufers präziser zu erfassen. Die Software ist dabei in der Lage, aus Assoziationen Schlüsse zu ziehen. Sagt der Anrufer beispielsweise „Seit gestern Nacht haben wir bei uns auf der Straße einen Springbrunnen“, schließt das Spracherkennungssystem daraus, dass wahrscheinlich ein Unterflurhydrant kaputt ist. „Die Basis von Deep.assist ist keine Stichwortsuche, sondern eine assoziative Suche. Das System ist zudem auf spezifische Fragestellungen trainierbar“, erläutert Geschäftsführer Roland Fleischhacker, der 2016 dieses weltweit erste Expertensystem für Contact Center von Facility Service Anbietern und großen Immobilienverwaltungen gelauncht hat.

Datendetektiv Watson.

Zu den bekanntesten Protagonisten künstlicher Intelligenz zählt wohl Watson von IBM. Berühmtheit erlangte der Supercomputer im Jahr 2011, als er die US-amerikanische Gameshow Jeopardy (Kandidaten müssen möglichst schnell Fragen aus diversen Wissenskategorien beantworten) gegen die besten Jeopardy Spieler aller Zeiten gewann. Die größte Schwierigkeit bestand darin, die oftmals irreführenden Fragestellungen zunächst zu verstehen – eine Aufgabe, für die Watson speziell trainiert wurde. Sieben Jahre später zählt Watson Natural Language Understanding (NLU) zu den wichtigsten Services der Produktlinie von IBM. So wird Watson for Oncology etwa an Krebsinstituten eingesetzt, um Ärzte bei ihren Diagnosen beratend zur Seite zu stehen. Berichtet wird von einem Fall in Tokio im Jahr 2016, als Watson bei einer an Krebs erkrankten Frau innerhalb von zehn Minuten die Daten mit denen von 20 Millionen anderen Krebspatienten abglich, um eine besonders seltene Form der Leukämie zu erkennen, die den Ärzten entgangen war. Das von Watson zur Behandlung vorgeschlagene Medikament soll der Frau laut Auskunft der Ärzte das Leben gerettet haben.

Hoffnung für die Medizin.

Dass NLP künftig gerade im Gesundheitsbereich Besonderes leisten kann, davon sind namhafte Experten überzeugt. Gefüttert mit Daten aus der Patientenakte, medizinischer Literatur, Fachartikeln oder klinischen Behandlungspfaden wird die Kompetenz, natürliche Sprache verstehen und analysieren zu können, zu einer Option für Therapieempfehlungen. Für Marcel Rebbert, Senior Analyst am Institute for Digital Transformation in Healthcare an der Universität Witten/Herdecke (erste Privatuniversität Deutschlands) steht fest: „Natural Language Processing hat enormes Potenzial im Healthcare-Sektor. In Zukunft wird es die einzige Möglichkeit sein, das exponentiell wachsende Wissen in der Medizin nutzbar zu machen.“