Wenn Künstliche Intelligenz sexistisch und lebensgefährlich wird

(c) Microsoft/Twitter
  • Drucken

IBMs Supercomputer Watson entpuppte sich im Einsatz bei der Krebsdiagnostik als lebensgefährlich. Amazons Künstliche Intelligenz zur Analyse von Bewerbungsschreiben wurde abgedreht, weil sie sexistisch agierte. Stephen Hawking warnte schon zu Lebzeiten vor der Übernahme durch Maschinen.

Ohne Künstliche Intelligenz geht es heute nicht mehr. Die Bandbreite reicht von der Glühbirne, die weiß, welches Licht wir nach Feierabend, beim Champions-League-Spiel oder zum Aufstehen brauchen. Autos lenken wie von Zauberhand in die kleinsten Parklücken oder zeigen uns, wie man spritsparender fährt. Das ist aber nur der Anfang. Denn Künstliche Intelligenz soll vor allem auch dazu genutzt werden, sozialen Herausforderungen zu begegnen. Sie sollen helfen, Dinge leichter zu machen. Wie etwa Diskriminierung in Bewerbungen auszulöschen oder Menschen mit Krebs besser zu behandeln. Eine Utopie, wenn man sich die Kinderschuhe ansieht, in denen diese Technologie derzeit noch steckt. IBM, Amazon oder Microsoft unternehmen gerade erste Schritte und mussten herbe Rückschläge hinnehmen.

Microsoft erforschte die Automatisierung intelligenten Verhaltens mit wenig Erfolg. Der auf künstlicher Intelligenz basierende Chatbot namens "Tay" war darauf programmiert, als 19-jähriges Mädchen mit Gleichaltrigen im Netz zu chatten. Binnen kürzester Zeit mutierte der Chatbot zu einer Rassistin mit Drogenproblemen, weil sie die Verhaltensweisen von ihren Gesprächspartnern übernahm. Microsoft musste "Tay" nach nur 16 Stunden wieder vom Netz nehmen.


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.