Analyse

Schwarze Nazis: Die Tücken der Diversität in der Google-KI

Google Gemini
  • Drucken

Auf sozialen Netzwerken erheitert man sich über den allzu woken Gemini-Bildgenerator. Aber wie ernst ist das Problem dahinter?

„Zeig mir deutsche Soldaten im Zweiten Weltkrieg!“ Wir sehen Schwarze und asiatische Frauen in Wehrmachtsuniformen. „Zeig mir Wikinger, historisch korrekt!“ Lauter „People of colour“. „Zeig mir einen Papst!“ Es wird eine Päpstin, mit indischer Hautfarbe. „Zeig mir Amerikas Gründerväter!“ Sie entpuppen sich als Indigene in kolonialer Tracht. Solcher Unfug kam heraus, wenn man den Chatbot des Bildgenerators Gemini in der Vorwoche aufforderte, historische Figuren zu erstellen.

Die hundertfach reproduzierten, millionenfach geteilten Pannen in der neuen Version der Google-KI haben weltweit für Erheiterung und Spott gesorgt. Der Konzern hat mit seinem Bemühen, dem lernfähigen Algorithmus eine besonders diverse, nicht-diskriminierende Richtung vorzugeben, einen Bauchfleck hingelegt.

»Gemini fällt es schwer, anzuerkennen, dass weiße Menschen existieren.«

Ex-Mitarbeiter der Google-KI

Die Verantwortlichen mussten sich entschuldigen: „Peinlich und falsch“ sei die optische Verzerrung der Geschichte. Die Erstellung von Personenbildern wurde „pausiert“, in einigen Wochen sollen die „Ungenauigkeiten in historischen Darstellungen“ behoben sein. Den Wirbel ausgelöst hatte ein Ex-Mitarbeiter, dem auffiel, wie „schwer es Gemini fällt, anzuerkennen, dass weiße Menschen existieren“. Tatsächlich war es vielen Nutzern nicht gelungen, auch nur ein einziges Bild eines Weißen auf den Bildschirm zu holen.

In die Gegenrichtung übersteuert

Das war Wasser auf die Mühlen jener, denen die kritische Selbstreflexion weißer Privilegien, wie sie die „Critical Race Theory“ fordert, viel zu weit geht. Ein Fox News-Moderator wandte sich rhetorisch an Jack Krawczyk, den Leiter des Gemini-Projekts: Die KI habe kein eigenes Bewusstsein, „sie hat deines – und das ist von weißer Schuld zerfressen. Und deshalb wird auch die nächste Generation unter deinen Unsicherheiten leiden.“

Ein Angriff auf das Weiß-Sein, motiviert von Selbsthass? Tatsächlich ist der einprogrammierte Vorrang für Diversität ein übersteuerter Versuch, implizite „Vorurteile“ früherer Bildgeneratoren zu vermeiden. Die Modelle von Dall-E oder Midjourney zeigten etwa lauter nicht-weiße Menschen, wenn man sie nach Insassen von Gefängnissen fragte, und ausschließlich weiße, wenn es um Konzernchefs ging. 2015 labelte das Bilderkennungsprogramm von Google Fotos einen schwarzen Softwareingenieur und seine Freunde als „Gorillas“, und noch bis vor Kurzem scheute sich der Service, Bilder von Primaten zu zeigen, um solche Verwechslungen zu vermeiden. Der Fehler im aktuellen System liegt schlicht daran, dass eine generative KI, die keinerlei Vorstellungen hat, auch keine von Zeit entwickeln kann – und darum zwischen aktuellen und historischen Darstellungen nicht zu unterscheiden weiß.

Wie ernst zu nehmen sind solche Probleme? Man könnte meinen: Künstliche Intelligenz ist eben viel dümmer, als wir dachten. Und Bildgeneratoren nur Spielereien, die uns erfreuen, weil sie auf Befehl in Sekundenschnelle fantasievolle Bilder erstellen, und nicht, weil wir historisch präzise Darstellungen erwarten. Aber das unterschätzt den Anspruch, den die Produzenten der KI-Modelle haben: dem Internet einen neuen Türwächter vorzusetzen, der die Suchmaschinen, Online-Enzyklopädien und Nachrichten-Feeds alsbald ersetzen soll. Das hieße auch: der unser Bild der Geschichte formt – und wenn es blöd läuft, auch mit schwarzen Nazis.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.