International

„Daten spiegeln Ungerechtigkeit der Welt wider“

Auf dieser Bank im Garten des Balliol College der Uni Oxford sitzt Sandra Wachter gern, um neue Ideen zu entwickeln.
Auf dieser Bank im Garten des Balliol College der Uni Oxford sitzt Sandra Wachter gern, um neue Ideen zu entwickeln. Brent Mittelstadt
  • Drucken

Sandra Wachter forscht an der Universität Oxford zu rechtlichen und ethischen Fragen neuer Informationstechnologien.

Erst kürzlich warnten Hunderte Forschende und Unternehmer, darunter auch Elon Musk, vor den Risiken der künstlichen Intelligenz (KI). Sie forderten ein sechsmonatiges Moratorium, das dazu genutzt werden soll, über ein Regelwerk nachzudenken.
Eine Aufforderung, die bei der aktuell am Oxford Internet Institute, einer Forschungseinrichtung der britischen Universität Oxford, forschenden Juristin Sandra Wachter einen Zwiespalt auslöst. „Einerseits finde ich es gut, dass wir uns darüber Gedanken machen, was KI mit unserer Gesellschaft macht und wie wir damit umgehen wollen. Andererseits habe ich das Gefühl, dass vieles an der Kritik utopisch und unrealistisch ist.“ Manches sei gar vom Science-Fiction-Gedanken getrieben, etwa, wenn gewarnt werde, dass KI eine kognitive menschliche Fähigkeit annimmt, also zum Leben erweckt wird. „Das sind ,Terminator‘-Szenarien, die verunsichern und von den echten, wenn auch vielleicht weniger aufregend klingenden Themen ablenken“, sagt Wachter.

Wie Maschinen diskriminieren

Die gebürtige Wienerin befasst sich in ihrer Forschung etwa damit, wie man mit der Voreingenommenheit und Diskriminierungen umgehen soll, die jeden Tag online passieren. „KI entscheidet schon heute mit, wer einen Job bekommt oder entlassen wird, eine Versicherung bekommt, zur Uni gehen darf oder ins Gefängnis muss. Jede kleine und große Entscheidung kann von KI getroffen werden.“ Viele Menschen meinten, der Algorithmus sei objektiv, weil er nicht von Emotionen geleitet ist. Ein Irrtum.

„KI nutzt historische Daten, wie Menschen Entscheidungen getroffen haben. Und die waren nicht immer gerecht. Sie spiegeln existierende Hierarchien und Machtstrukturen wider.“ So würden etwa weiße Männer mittleren Alters – manchmal verdient, oftmals nicht verdient – bevorzugt. Zudem seien Täuschungen meist schwierig zu erkennen. Ein Algorithmus funktioniere wie eine Blackbox: Kaum jemand wisse, was im Hintergrund passiert. „Man vertraut ihm mehr, obwohl man ihm weniger oder zumindest gleich wenig vertrauen kann“, sagt Wachter.

Der zweite Blick entlarvt

In Kürze

Das sei auch bei generativer KI so, die ganze Texte hervorbringt – Stichwort ChatGPT. Auch diese würde mit Daten trainiert, die „nicht auf Bäumen wachsen, sondern die Ungleichheit in der Gesellschaft widerspiegeln“. Dabei blieben manche Menschen im Schatten: „Man erfährt viel weniger von der Welt, als man meint“, sagt Wachter. Das sei zudem problematisch für Demokratien.

Freilich hat Wachter ChatGPT auch selbst ausprobiert. Sie sei positiv überrascht gewesen, wie gut es bei manchem funktioniere, etwa für vorgefertigte E-Mail-Antworten. Anderes habe aber nur auf den ersten Blick gut ausgesehen: Antworten auf Prüfungsfragen wirkten etwa zunächst beeindruckend, entpuppten sich aber als inhaltlich leer und wenig kritisch. Und manches sei überhaupt „erstunken und erlogen“ gewesen: etwa als ein Paper zitiert wurde, das gar nicht existiert. „Die Inhalte werden so überzeugend präsentiert, können uns aber in eine Falle locken“, sagt die Forscherin.

Trotz all der Skepsis sieht sie sich als „Technikfreundin“. Überhaupt hätten Technik und Frauen für sie stets zusammengehört: „Meine Großmutter war als Mathematikgenie eine der ersten Frauen, die an der TU Wien studiert haben. Die Faszination ist früh auf mich übergesprungen.“ Negative Erfahrungen machte sie erst später. Etwa in der Schule, wo sie unbedingt technisches Werken statt Handarbeiten belegen wollte. „Sticken und Stricken waren für mich grauenhaft. Ich wollte ein Vogelhaus bauen, so wie die Buben. Aber die Lehrerin sagte: ,Mädchen machen das nicht.‘“ Wachter war empört, doch selbst der Gang zum Direktor half nicht.

Nach der Schule entsprach das Jus-Studium ihrem starken Gerechtigkeitssinn. Über Datenschutzfragen kam sie zu ihrem heutigen Themenfeld: rechtlichen, ethischen und sozialen Aspekten neuer Informationstechnologien. Und die werden am Oxford Internet Institute aus ganz unterschiedlichen Perspektiven betrachtet. „Es ist kunterbunt. Es gibt Leute aus Psychologie, Politologie, Philosophie, Jura oder Ökonomie. Alle, die sich über Technik den Kopf zerbrechen, sind willkommen“, berichtet Wachter. Ein solcher Zugang sei auch in Großbritannien einzigartig.
Geplant habe sie ihre steile Karriere, die zuletzt in einer Professur gemündet hat, nicht. „Ich würde gern sagen, da war ein Masterplan dahinter, aber ich hatte eher Glück und bestimmte Dinge haben sich einfach angeboten“, erzählt Wachter. Nebenbei berät sie Politik und Industrie – und heimst für ihre Forschung Auszeichnung um Auszeichnung ein.

Und wie erholt man sich von so viel Engagement? Wachter joggt zwei- bis dreimal pro Woche, macht Yoga und fährt gern zum Surfen nach Cornwall an die Südküste Englands. Außerdem liest sie „sehr, sehr viel“. Derzeit griechische Mythen, sonst aber auch gern Science-Fiction und da am liebsten Speculative Fiction, also Geschichten, die in näherer Zukunft wahr werden könnten. Mit utopischen und wenig realistischen Szenarien kann sie offenbar auch hier wenig anfangen.Sandra Wachter ist gebürtige Wienerin. Neben ihrer Dissertation in Rechtswissenschaften an der Uni Wien zog es sie bereits für das Masterstudium Social Science of the Internet nach Oxford: „Um die Technik besser zu verstehen“, sagt sie. Es folgten berufliche Stationen u. a. an der Königlichen Akademie für Technik und im österreichischen Gesundheitsministerium. 2019 wurde sie außerordentliche Professorin, mit August 2022 Professorin für Technology and Regulation am Oxford Internet Institute (OII) der University of Oxford.

Das OII ist Teil der sozialwissenschaftlichen Fakultät der Uni Oxford. Dort befassen sich Forschende aus unterschiedlichen Disziplinen wie Recht, Wirtschaft, Soziologie oder Philosophie mit brennenden Fragen der Computerwissenschaften. Die gelebte Interdisziplinarität unter Lehrenden wie Studierenden ist für Wachter das Besondere an der 2001 gegründeten Einrichtung. Mit dem von ihr geleiteten Team befasst sie sich mit den Folgen und einem möglichen Ordnungsrahmen neu entstehender Technologien.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.