Big Data

Algorithmen lernen zu diskriminieren

Wer braucht dringend medizinische Hilfe? Wer kann warten? Die Antwort der KI kann diskriminierend ausfallen.
Wer braucht dringend medizinische Hilfe? Wer kann warten? Die Antwort der KI kann diskriminierend ausfallen.Universal Images Group via Getty
  • Drucken

Ob bei der Einschätzung von medizinischen Notfällen oder der Reihung von Jobinteressenten – KI-Systeme schreiben den Rassismus und Sexismus unserer Gesellschaft fort.

Ein automatischer Seifenspender, der schwarze Menschen diskriminiert, weil seine auf Nahinfrarot basierenden Sensoren dunklere Hautfarben nicht erkennt, ist lästig. Eine kostspielige Pulsuhr, deren optische Herzfrequenzmessung nur bei hellen Hauttönen einwandfrei funktioniert, ein Ärgernis.

Wenn schwarze Kleinkriminelle jedoch zweimal häufiger als weiße eine Gefängnisstrafe bekommen, weil das ein Algorithmus zur Risikobewertung den US-Behörden empfiehlt, ist das eine neue, gefährliche Dimension von strukturellem Rassismus. Das Gleiche gilt für künstliche Intelligenz (KI), die entscheidet, wer Anspruch auf Asyl hat oder wer im Krankenhaus priorisiert Hilfe benötigt.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.