Interview

KI im Superwahljahr: „Wir werden Versuche sehen, Chaos zu stiften“

Montage
MontageImago / Christian Ohde
  • Drucken

Merve Hickok, eine der weltweit führenden Expertinnen für KI-Politik, über den drohenden „perfekten Sturm“ im heurigen Wahljahr und darüber, wie leicht es heute ist, jemanden mit Deepfakes zu täuschen.

Die Presse: In Ihrer Heimat, den USA, hat das Rennen um das Weiße Haus begonnen. Wird künstliche Intelligenz in diesem Wahljahr mitmischen?

Merve Hickok: Natürlich. Und das nicht nur in den USA. 2024 finden weltweit so viele Wahlen statt wie das nächste Mal 2048. Wir steuern also auf einen beinahe perfekten Sturm zu aus vielen Wahlen, immer neuen generativen KI-Systemen und der schon davor bestehenden Desinformation in den sozialen Netzwerken.

Welche konkreten Szenarien bereiten Ihnen Kopfzerbrechen?

Fehlinformationen zum Beispiel. Dass Wähler die Grenzen von generativen KI-Systemen (wie ChatGPT, Bard; Anm.) nicht kennen und diese nutzen, um sich zu informieren, zum Beispiel darüber, wo ihr Wahllokal ist oder was man über einen bestimmten Kandidaten wissen muss. Aber generative KI-Systeme versuchen buchstäblich nur das nächste Wort vorauszusagen. Sie sind keine faktenorientierten Systeme. Daneben besteht natürlich im Wahljahr die Gefahr von Deepfakes.

Also von Manipulation mit täuschend echt aussehenden Bildern und Videos.

KI hat den Aufwand und die Kosten zur Erstellung solcher Deepfakes erheblich gesenkt. Ich bin technisch nicht sonderlich versiert, bräuchte aber keine Stunde, um ein Video oder ein Bild zu fabrizieren, das Sie kaum von einer echten Aufnahme unterscheiden könnten.

Haben Sie solche Deep­fakes schon im Zusammenhang mit der Wahl im Herbst beobachtet?

Im Vorjahr kursierten Deepfakes von Barack Obama, Nancy Pelosi und Donald Trump, aber wir haben das auch in vielen anderen Ländern gesehen.

Was wird mit diesen Deepfakes bezweckt?

Am Ende geht es in einer Demokratie immer auch um Vertrauen. In die Institutionen. Die Regierung. Den Journalismus. Den demokratischen Prozess insgesamt. Wir werden mehr und mehr bösartige Versuche sehen, dieses Vertrauen zu untergraben und Chaos zu stiften. Das steht fest und das gilt für so ziemlich jede Wahl in diesem Jahr.

Auf der anderen Seite: Kann KI nicht auch helfen, Desinformation schneller aufzuspüren?

Ja, jede Medaille hat zwei Seiten. KI-Systeme können dabei nützlich sein, den Ursprung von Falschnachrichten zu finden und auch aufzuspüren, wie und wo sie sich verbreitet haben. Aber es ist noch nicht so, dass die Vorteile überwiegen.

Im Vorjahr kursierten schrille Warnungen, KI könnte eines Tages auch die Menschheit auslöschen. Was sind Ihre Worst-Case-Szenarien?

Ich persönlich glaube nicht an eine Zukunft, in der KI-Systeme ihre eigenen Ziele entwickeln.

Kein „Terminator-Szenario“.

Nein, definitiv nicht. Mein Worst-Case-Szenario ist, dass jemand mithilfe von KI eine Umgebung schafft, in der niemand mehr dem System vertraut, in der sich die Gesellschaft auflöst und jeder auf eigene Faust handelt. Zugleich wird die Technologie immer billiger. Man kann sich heute schon um 100 Euro eine Drohne besorgen, danach diese Drohne bewaffnen und mit einer Gesichtserkennungssoftware für Attentate ausstatten. Aber das sind Worst-Case-­Szenarien.

Ihre Organisation drängt hingegen, den Fokus auf die weniger apokalyptischen bereits bestehenden Probleme mit KI zu richten. Welche?

Zunächst einmal hat KI auch das Potenzial, die Demokratie und Menschenrechte zu stärken. Aber die Technologie kann eben auch beides schwächen. KI-Systeme können beispielsweise den Zugang zu Arbeitsmarkt, Krediten, dem Wohnungsmarkt und Bildung kontrollieren und dabei auch diskriminieren.

Wo wurden KI-Systeme bereits missbräuchlich von Staaten verwendet?

Es gibt viele Beispiele, eines der größten in Europa ist die Kindergeldaffäre in den Niederlanden, die die Regierung dort 2021 zu Fall gebracht hat. Dort führte ein KI-System, das Sozialbetrug früh erkennen sollte, dazu, dass Tausenden Menschen fälschlicherweise das Kindergeld gestrichen wurde, darunter vor allem Minderheiten.

Sie haben auch einen Index entwickelt, der 75 Staaten auf „Artificial Intelligence and Democratic Values“ abklopft. Wer sind die Musterschüler?

Kanada, Südkorea, Deutschland und Kolumbien.

Worauf achten Sie bei der Bewertung?

Ein paar Leitfragen sind: Wie kann man gewährleisten, dass demokratische Werte und Menschenrechte sichergestellt sind? Herrscht Transparenz? Wie können Sie beispielsweise in Österreich herausfinden, welche KI-Systeme eingesetzt werden? Gibt es eine unabhängige Aufsicht, die über die Umsetzung der KI-Politik wacht?

Auch die EU hat inzwischen ein viel beachtetes KI-Regelwerk beschlossen. Ist dieser „EU AI Act“ ein Vorbild für die USA?

Nicht nur für die USA. Er kann eine Blaupause für die ganze Welt sein, darunter für kleinere Staaten, die vielleicht gar nicht die Möglichkeiten haben, solche Regelwerke von null auf zu entwickeln und die daher Teile entlehnen können. Wir finden das Ergebnis jedenfalls aufregend. Für uns war auch wichtig, dass Bereiche untersagt wurden, die in großem Widerspruch zu Menschenrechten stehen, darunter social scoring (Punktesystem zur Bewertung von erwünschtem Sozialverhalten, Anm.).

Europa scheint im Regulieren jedenfalls besser als im Entwickeln von künstlicher Intelligenz. Warum hinkt es hinterher?

Das hat nichts mit den KI-Regeln zu tun. Es mangelt in Europa auch nicht an Talenten. Für mich liegt es an der Bürokratie in Europa bei Firmengründungen und der Risikokapital-Struktur. Wenn man in den USA ein Unternehmen gründet, dafür Geld auftreibt und scheitert, fängt man einfach wieder von vorn an und sammelt neues Geld ein. Wenn man in Europa pleitegeht, dann war es das wahrscheinlich mit deiner Karriere in der Wirtschaft.

Zur Person

Merve Hickok zählt zu den weltweit führenden Expertinnen, wenn es um KI-Politik geht. Die US-Amerikanerin und Gründerin der Non-Profit-Organisation Center for AI & Digital Policy war in Wien, um auf Einladung von US-Botschaft und Außenministerium über die Auswirkungen von KI auf die Demokratie zu sprechen.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.