Dieser Browser wird nicht mehr unterstützt

Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.

Kategorie Innovation

Prewave: Warnung, bevor die Welle kommt

Den Prototyp der Prewave-Technologie hat Lisa Smith im Rahmen ihrer Dissertation an der TU Wien entwickelt.
Den Prototyp der Prewave-Technologie hat Lisa Smith im Rahmen ihrer Dissertation an der TU Wien entwickelt.Günther Peroutka
  • Drucken

Das Artificial Intelligence Start-up Prewave erkennt frühzeitig lokale, von Menschen verursachte Risken und macht sie global sichtbar.

Meldungen über eine unruhige Stimmung unter den Hafenarbeitern in Indonesien sickerten via soziale Medien am 16. November durch. Nur einen Tag später prognostizierte das Wiener Start-up Prewave einen potenziellen Streik. Nachdem tags darauf lokale Printmedien das Thema aufgriffen, konkretisierte Prewave seinen Risikobefund und datierte einen bevorstehenden Streik mit 4. Dezember. Am 4. Dezember wurde die Arbeit in verschiedenen Häfen Indonesiens niedergelegt. Der Protest, der zuvor international keine Erwähnung gefunden hatte, richtete sich gegen eine neue Verordnung des Ministeriums.

„Es ist ein schönes Beispiel dafür, was Prewave leisten kann“, sagt Lisa Smith, Gründerin des Artificial Intelligence Unternehmens und Spin-offs der TU Wien. Entwickelt hat sie im Zuge ihrer Dissertation in Informatik eine Technologie zur automatisierten Erkennung und Vorhersage von Risken auf Basis von Social-Media-Daten und lokalen Nachrichtennetzwerken. Als technologische Basis dienen neueste Methoden des maschinellen Lernens und der natürlichen Sprachverarbeitung. „Zielsetzung ist es, lokale Umwelt- und Sozialrisken global sichtbar und transparent zu machen und durch präzise Prognosen und Risikoeinschätzungen Lieferketten nachhaltiger zu gestalten“, so Smith, die ein Beispiel anhand einer arttypischen Kundschaft von Prewave bringt: „Wenn in der produzierenden Automobilindustrie zuliefernde Unternehmen nicht ,in time‘ sind, kann die Störung der Supply Chain in kürzester Zeit zu Kosten in Millionenhöhe führen. Sehen wir diese Probleme vorher und warnen das Unternehmen, lässt sich rechtzeitig darauf reagieren und der Schaden in Grenzen halten.“

Zu den Zielkunden von Prewave zählen insbesondere Unternehmen mit komplexen Lieferketten, Versicherungen, Banken oder NGOs. Seinen Kunden bietet das Start-up neben Prognoseanalysen auch ein Nachhaltigkeitsscreening an. Lieferanten oder Investitionsprojekte werden dabei bis zu zehn Jahre rückwirkend auf Umwelt- und Sozialrisken überprüft. Zusätzlich können sich Unternehmen durch laufendes Monitoring über aktuelle Ereignisse informieren. Via Schnittstellen lassen sich die Daten in die IT-Systeme der Firmen integrieren.

 

Mensch und Umwelt

Die Palette der Ereignistypen, die von Prewave überwacht werden, ist breit gefächert. In sozialen Systemen liegt der Fokus beispielhaft auf arbeitsrechtlichen Entwicklungen, Unruhen in der Belegschaft, Kinderarbeit oder Diskriminierungen am Arbeitsplatz. Im Bereich Umwelt hat man etwa Ursachen für Luftverschmutzungen, Wasserbeeinträchtigungen oder Abfallproblematiken im Visier. Politische Veränderungen und Tatbestände der Korruption stehen ebenso unter Beobachtung wie Cyber Risks. Zu einem immer wichtigeren Thema, insbesondere für Kunden aus der Versicherungsbranche, avancieren auch Reputationsrisken, Stichwort Shitstorm-Versicherung. Denn gegen Schäden aus dem drohenden Reputationsverlust kann man sich versichern. Je glaubwürdiger Unternehmen nachweisen, dass die Risken niedrig sind, desto geringer fällt die Versicherungsprämie aus.

Die Daten, die Prewave analysiert, stammen großteils aus Twitter, YouTube und lokalen Nachrichtenquellen. Um vor allem Letztere nutzbringend zu verwenden, werden die selbstlernenden Algorithmen in zahlreichen verschiedenen Landessprachen trainiert. Damit sichert sich Prewave einen Qualitäts- bzw. Zeitvorsprung bei der Infogewinnung und -auswertung.

 

Nur Gutes im Sinn

Zugriff hat das Wiener Unternehmen dabei ausschließlich auf öffentlich zugängliche Daten. Informationen zu den Datenquellen bekommen die Kunden nicht zu sehen – eine Frage des Datenschutzes. Ein eigens festgeschriebener Moralkodex sorgt zudem dafür, dass auf ethischer, rechtlicher und sozialer Ebene verantwortlich gehandelt wird: „Wir wollen Vorkehrungen treffen, dass die Technologie nur für Gutes eingesetzt wird.“

("Die Presse", Print-Ausgabe, 24.01.2019)