Gastkommentar

Sollten Algorithmen Mitarbeitende bestrafen?

  • Drucken

Digitalisierung. Wo die Überwachung am Arbeitsplatz mangels Alternativen zum Zwang wird, werden Persönlichkeitsrechte beschnitten.

Stellen Sie sich vor, dass Sie während Ihrer Arbeit rund um die Uhr von vier Kameras und einem Algorithmus überwacht werden, der Ihr Verhalten auswertet. Der Algorithmus bestraft Sie mit einer schlechten Bewertung, sobald Sie während der Arbeitszeit kurz Kaffee trinken.

Was sich nach einer Orwell'schen Dystopie anhört, ist für Amazon-Fahrerinnen und -Fahrer in den USA seit Anfang 2021 Realität. Das Unternehmen nutzt dafür die Technologie des US-amerikanischen Unternehmens Netradyne. Die Kameras zeichnen das Verhalten der Fahrer und Fahrerinnen im Auto direkt auf. Sie überwachen dabei die Einhaltung des Abstands, die Fahrgeschwindigkeit, Aufmerksamkeit oder Haltevorgänge an Stoppschildern. Schließt der Algorithmus, dass Fahrer nicht korrekt stoppen, reagiert das System mit Audionachrichten, und mutmaßliches Fehlverhalten fließt direkt in ein automatisiertes Bewertungssystem ein, das über Bonus- oder Strafzahlungen bestimmt.

Wie rechtfertigt Amazon ein System, das so unmittelbar in das Verhalten der Mitarbeitenden eingreift und sogar automatisiert Strafen ausspricht? In der Öffentlichkeit verweist das Unternehmen auf die erhöhte Verkehrs- und Arbeitssicherheit und zitiert Auswertungen, wonach Verkehrsverstöße um bis zu 60 Prozent gesenkt werden konnten. Amazon betont auch den Vorteil der Überwachungskameras für die Mitarbeitenden selbst, die in der Regel über Nachunternehmen angestellt sind. Denn das System soll Fahrer bei Verkehrsdelikten im Zweifelsfall entlasten können. Unabhängig von öffentlichen Rechtfertigungen dürfte für Amazon allerdings nicht primär das Wohlergehen der Verkehrsteilnehmenden im Vordergrund stehen, sondern eine erhebliche Kostensenkung. Mithilfe der Überwachung spart das Unternehmen, etwa durch vorenthaltene Boni oder ausgesprochene Strafzahlungen. Zudem kann Amazon die Versicherungskosten senken und Fahrer und Fahrerinnen bei Fehlverhalten leichter zur Verantwortung ziehen.

Stoppschilder, wo keine sind

Das Vorgehen Amazons wirft eine Reihe ethischer Probleme auf. So suggeriert die emotionslose Sachlichkeit der Algorithmen neutrale Entscheidungen über menschliches Verhalten. Dieser behaupteten Objektivität steht jedoch die Fehleranfälligkeit des Überwachungssystems von Netradyne entgegen. An unübersichtlichen Stellen werden Stoppschilder erkannt, wo keine sind, und das nachdenkliche Kratzen am Kopf wird als Telefonieren gedeutet. Das Kamerasystem bildet zudem nur einen Ausschnitt der Realität ab und kann den Gesamtkontext des Fahrverhaltens nicht umfänglich einschätzen. Nicht umsonst werden Verkehrsdelikte in rechtlichen Verfahren überprüft, um Verhalten unter verschiedenen Gesichtspunkten zu betrachten und Einspruch zu ermöglichen. Im Fall von Amazon entscheiden jedoch praktisch allein die Einschätzungen des Algorithmus darüber, ob Fahrerinnen und Fahrer eine Strafe zahlen müssen oder ihnen Bonuszahlungen verwehrt werden. Die automatisierten Entscheidungen sind, laut Aussage der Mitarbeitenden, nur schwer anzufechten. Fahrer:innen bekommen somit einen maschinellen Vorgesetzten und Richter mit einer immensen informationellen Macht. Diese Art einseitiger, willkürlicher Kontrolle durch den Algorithmus steht in einer tiefen Spannung mit unserem demokratischen Selbstverständnis als mündige Bürger.

Wer hat zugestimmt?

Ein weiteres zentrales Problem stellt sich bei der Legitimität der Datensammlung. Eingriffe in die Persönlichkeitsrechte erfordern mindestens eine informierte freiwillige Zustimmung der Mitarbeitenden. Im Fall von Amazon ist diese Freiwilligkeit nicht gewährleistet, da die Einwilligung in die biometrische Datenverarbeitung direkt an den Abschluss des Arbeitsvertrags bei Nachunternehmen gekoppelt ist. Gerade für prekär angestellte Personen, wie dies bei Amazon-Fahrer:innen oft der Fall ist, bestehen wenig Handlungsspielräume, einen anderen Arbeitsvertrag anzunehmen. Die Überwachung am Arbeitsplatz wird somit mangels Alternativen schnell zum Zwang, auch weil Amazon eine erheblich Marktmacht auf dem Liefermarkt erworben hat. Darüber hinaus ist unklar, zu welchen weiteren Zwecken die Daten gesammelt und verarbeitet werden. Mindestens wird Netradyne die Daten als Input für das Training des eigenen Algorithmus nachnutzen, jedoch möglicherweise auch zur Produktentwicklung in anderen Kontexten. Somit tragen Amazon-Fahrer indirekt zur Wertschöpfung des Überwachungskonzerns bei. In gegenwärtigen philosophischen Debatten argumentieren Autorinnen wie Shoshana Zuboff, dass ähnliche Formen der Datenverarbeitung als Ausbeutung einzuschätzen sind.

Schwer ins Gewicht fällt auch die Einschränkung der Autonomie der Fahrer durch die engmaschige Verhaltensbeeinflussung.Unter dem Vorwand der Sicherstellung der Verkehrssicherheit schafft die automatisierte Beobachtung und Bestrafung ein totalitäres Überwachungssystem. Um dem veränderten Arbeitskontext Rechnung zu tragen, sind Mitarbeitende dazu gezwungen, das mechanische Auge immer im Hinterkopf zu behalten. Beispielsweise berichten Fahrer, zweimal an einem Stoppschild zu halten, um keine Strafe zu riskieren. Aus der kolportierten Entlastung wird so eine Belastung, weil Fehler des Algorithmus proaktiv berücksichtigt werden. In der Forschung wird dieses Phänomen auch als „Gruseleffekt“ bezeichnet, da Personen vorsorglich ihr Verhalten verändern, wenn sie sich beobachtet fühlen. In dem Versuch, den Erwartungen der Beobachtenden zu entsprechen, begeben sich die Mitarbeitenden in antizipierte Rollen, die ihre eigenen Wünsche, ihre Identität und Individualität negieren. Mitarbeitende werden zu Instrumenten und Rädchen im Maschinenwerk Amazons. Das Fehlen persönlicher Ausdrucksmöglichkeiten und der Kapazität, ihre eigenen Ziele zu setzen, verletzt ihre Autonomie.

Algorithmen everywhere

Wie ist dieser Umstand einzuschätzen? Philosophen in der Tradition Kants verstehen die Autonomie des Menschen als Fähigkeit zur Selbstgesetzgebung und Grundlage für menschliche Würde. Wird, wie bei Amazon, dem Individuum die Möglichkeit des Selbstausdrucks beschnitten, so läuft dies auf eine Verletzung der menschlichen Würde hinaus.

Algorithmen halten in jeden Winkel unseres Lebens Einzug und werden oft mit generischen Argumenten des Effizienzgewinns oder der Erhöhung der Sicherheit beworben. Am Beispiel des Überwachungssystems von Amazon und Netradyne wird deutlich, welche ethischen Probleme automatisierte Entscheidungssysteme mit sich bringen. Indem sie eine falsche Objektivität suggerieren, beschränken sie nicht nur unsere Handlungsfreiheit. Sie können auch Persönlichkeitsrechte durch ausbeuterische Vertragsgestaltung untergraben und die Würde des Menschen beschneiden.

Gastkommentare und Beiträge von externen Autoren müssen nicht der Meinung der Redaktion entsprechen.

>>> Mehr aus der Rubrik „Gastkommentare“

E-Mails an: debatte@diepresse.com

("Die Presse", Print-Ausgabe, 03.04.2023)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.