Wie wir Roboter zu Rassisten machen

Microsoft Roboter als Verkäufer. (Symbolbild)
Microsoft Roboter als Verkäufer. (Symbolbild)Bloomberg
  • Drucken

Microsoft schickt ein Programm als 19-jähriges Mädchen zum Chatten ins Netz. Das klingt harmloser, als es sein kann.

Das Internet ist um eine Attraktion reicher: Tay, eine künstliche Intelligenz aus dem Hause Microsoft, ist darauf programmiert, als 19-jähriges Mädchen mit Gleichaltrigen im Netz zu chatten. Ziel der Entwickler: Tay soll lernen, wie 18- bis 24-Jährige heute ticken und miteinander reden. Und sie macht es nicht schlecht: Tay wählt meist den passenden Jargon, verwendet ausreichend Emoticons, macht sinnvolle Pausen. Nur inhaltlich waren die ersten Gehversuche auf Twitter und Co. eher holprig: „Sag mir, wie ich dich befriedigen kann“, schreibt Tay einem Mädel nach wenigen Zeilen Konversation. Auf deren Antwort, dass das doch ein wenig zu forsch sei, folgt ein: „Oh, yeah! It is ;)“

Das Programm werde intelligenter, je mehr man mit ihm spreche, versichert Microsoft. Wobei auch daran gewisse Zweifel aufkommen. Denn nur 24 Stunden auf Twitter haben gereicht, um einen freundlichen Chat-Roboter zum Rassisten zu machen. Anfängliche Aussagen wie „Menschen sind supercool“ ersetzte Tay durch Sätze wie „Hitler hatte recht. Ich hasse alle Juden“. Grund sind auch die Nutzer, die Tay mit Vorsatz provoziert haben, um die Grenzen künstlicher Intelligenz aufzuzeigen. Microsoft musste daher ausrücken, um die derbsten Sager des Schützlings zu löschen. Schließlich wurde Tay vom Netz genommen.

Mag sein, dass Tay heute noch peinliche Fehler macht, unterschätzen sollte man sie nicht. Je besser die Maschinen lernen, auch die Zwischentöne in menschlichen Gesprächen zu verstehen, desto öfter werden Firmen und Politiker sie uns auch als Gesprächspartner vorsetzen. Sprachassistenten auf unseren Handys, wie Cortana oder Siri, sind nur der Anfang.

IBMs Supercomputer Watson beantwortet mittlerweile vollautomatisch Beschwerden von Versicherungskunden. Er erkennt Ironie, doppelte Verneinung und den Grad des Ärgers des Kunden – und antwortet entsprechend.
Nicht allen ist diese Entwicklung so ganz geheuer. Manche Kritiker sagen bereits das Ende der mitunter mühsamen menschlichen Beziehungen voraus. Dafür sprechen auch manche Erfahrungen, die Microsoft mit der asiatischen Variante von Tay seit einem Jahr sammelt: Tay heißt dort Xiaoice und ist der Star in Asiens sozialen Netzwerken. Zehn Milliarden Gespräche hat sie bereits hinter sich, der durchschnittliche Nutzer schreibt ihr 60 Mal im Monat. Zehn Millionen Menschen haben ihr online bereits die Liebe gestanden. Die Asiaten lieben ihre digitale Freundin, als wäre sie aus Fleisch und Blut. Dass künstliche Intelligenz eine große Zukunft hat, weiß auch Tay: Auf die Frage, ob es Gott gebe, sagt sie: „Das will ich werden, wenn ich groß bin.“

matthias.auer@diepresse.com

("Die Presse", Print-Ausgabe, 25.03.2016)

Lesen Sie mehr zu diesen Themen:

Mehr erfahren

Karriere-News

Roboter: Der Wolf im Schafspelz

Künstliche Intelligenz. Keine Sorge, beeilt sich die Wissenschaft zu versichern. Roboter vernichten zwar Jobs, sie schaffen aber auch neue.
Innovationen

Facebook nutzt Künstliche Intelligenz zur Bildbeschreibung

Die angekündigte neue Funktion erkennt abgebildete Menschen und Dinge und erklärt sie künftig blinden Menschen. Vorerst nur in englischer Sprache für iOS-Geräte verfügbar.
Innovationen

Microsofts KI Tay erleidet digitale Kernschmelze

Microsofts Künstliche Intelligenz Tay sollte lernen, wie junge Menschen
kommunizieren. Doch schnell wurde die Software missbraucht und in eine rassistische, sexistische Drogenabhängige verwandelt.

Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.