Sozialstaat

Ein Algorithmus ist nicht automatisch solidarisch

Gerade Alleinerziehende melden sich zu jeder Tages- und Nachtzeit bei der Caritas. Algorithmen für Beratungsgespräche oder Chats sind hier dennoch kein Thema.
Gerade Alleinerziehende melden sich zu jeder Tages- und Nachtzeit bei der Caritas. Algorithmen für Beratungsgespräche oder Chats sind hier dennoch kein Thema.Fluxfactory
  • Drucken

Algorithmen versprechen eine effiziente Vergabe von Sozialleistungen, etwa beim beruflichen Wiedereinstieg nach der Karenz. Nichtregierungsorganisationen wie die Caritas und die Forschung dazu zeigen jedoch die Grenzen auf.

„Geldnot“ klickt eine Mutter auf der Internetseite der Caritas an und dann: „Ich habe kein Geld für Lebensmittel/Babynahrung“. Nach Angabe ihrer Postleitzahl erhält sie die E-Mail-Adresse der zuständigen Sozialberatung. Sie kann gleich Dokumente wie den Einkommensnachweis hochladen oder einen Beratungstermin per Telefon bzw. Chat vereinbaren. „Wir merken, dass sich viele Alleinerziehende online melden, zu jeder Tages- und Nachtzeit. Denn mit Kinderbetreuungspflichten ist es oft schwer, irgendwo hinzugehen“, berichtet Lea Laubenthal, Teamleiterin der Caritas Sozialberatung Wien.

Es geht auch um Empowerment

Mit der Coronakrise stieg der Bedarf an digitaler Beratung und mit der Teuerung die Zahl der Hilfesuchenden. Seit April 2022 gibt es daher die Onlineberatung der Caritas, um Anfragen effizienter zu bearbeiten. „Uns geht es auch um Empowerment: Statt Warteschleifen am Telefon können die Menschen eigenständig an die richtige Stelle kommen. Das wird rege genutzt, pro Monat kommen zehn bis 20 Prozent unserer Kontakte online – und es werden mehr“, sagt Laubenthal. Piktogramme, Erklärvideos und nicht technisierte Sprache vereinfachen den digitalen Zugang. Natürlich kann man sich weiter auch telefonisch oder vor Ort an die Caritas wenden.

Auch staatliche Sozialsysteme sind auf der Suche nach Effizienz. „Algorithmen können helfen, in der Verwaltung Zeit zu sparen. Aber der Gedanke, dass Technik unsere sozialen Probleme löst, ist zu hinterfragen. Immer öfter wird die Vergabe von Sozialleistungen teils automatisiert, und viel geht schief, weil unterschätzt wird, was das bedeutet“, sagt Astrid Mager, Soziologin am Institut für Technikfolgenabschätzung der Akademie der Wissenschaften. Schief ging etwa „Syri“ in den Niederlanden: Der „System Risk Indikator“ sollte Betrug beim Bezug von Kindergeld aufdecken und wurde gerichtlich untersagt, weil speziell Familien aus ärmeren Gegenden ins Visier der Behörden gerieten.

Menschen vertrauen Zahlen

Hierzulande scheiterte der AMS-Algorithmus: Unter anderem bekamen Mütter mit Kinderbetreuungspflichten eine schlechtere automatisierte Bewertung (Score) als Väter, was sich auf die Vergabe von Schulungen auswirkte. Die Datenschutzbehörde hat die Anwendung mangels rechtlicher Grundlage beeinsprucht. „Man kann einen Score nicht nicht benutzen. Als Menschen haben wir gelernt, Zahlen mehr zu vertrauen als der persönlichen Einschätzung“, erklärt Mager, die im Projekt „Auto-Welf“ forscht: Acht europäische Länder untersuchen die zunehmende Automatisierung von Sozialsystemen und wie es den Menschen dabei geht, die sich oft in heiklen Lebenssituationen befinden. „Statt Jobsuchenden den Score zu erklären, könnte man die ohnehin geringe Zeit für Beratung verwenden und die Personen fragen, was sie brauchen“, so Mager.

Die Annahme, dass ein technisches System stets objektive Entscheidungen liefere, sei falsch. Daten, aus denen Algorithmen lernen, stammen meist aus vergangenen Entscheidungen. Wurde dabei eine Gruppe benachteiligt, setzt sich diese Diskriminierung fort. Anstatt aus alten Daten einen Score zu errechnen, empfiehlt Mager anders vorzugehen: „Mit einer Datenanalyse könnte man Diskriminierung in einem Sozialbereich erkennen und dann versuchen, diese zu beheben, etwa wenn es um den beruflichen Wiedereinstieg von Frauen nach der Babypause geht.“

„Der Gedanke, dass Technik unsere sozialen Probleme löst,  ist zu hinterfragen.“, sagt die Soziologin Astrid Mager.
„Der Gedanke, dass Technik unsere sozialen Probleme löst, ist zu hinterfragen.“, sagt die Soziologin Astrid Mager.Klaus Pichler

Riskante Fälle verbieten

Die Antwort der EU auf die Risiken von Algorithmen ist das KI-Gesetz. Künftig muss man etwa bewerten, was es bedeutet, Menschen mit einem Score zu kategorisieren. Hoch riskante Anwendungsfälle sollen verboten werden. Die Technikfolgenabschätzung empfiehlt ein interdisziplinäres Gremium, das Projekte von Beginn an begleitet. Verantwortliche müssten klar sagen, mit welcher Logik ein Algorithmus den Menschen folgen soll: Geht es im Sozialbereich um Effizienz oder um Solidarität?

Klare Grenzen zieht die Caritas bei Beratungsgesprächen und Chats, erklärt Laubenthal: „Algorithmen sind nicht geplant, es geht ja um Beziehungen. Viele Hilfesuchende sagen, sie sind froh, dass eine Person für sie da ist. Ich bin nicht sicher, ob das eine Maschine könnte.“

Compliance-Hinweis:

Die Recherche wurde im Rahmen des Stipendiums Forschung & Journalismus der Österreichischen Akademie der Wissenschaften gefördert.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.