Computerwissenschaft

Wie man auf Twitter erkennt, dass man mit Robotern streitet

imago images / Panthermedia
  • Drucken

Programme, die sich auf sozialen Netzwerken als Menschen ausgeben, manipulieren politische Debatten und Wahlkämpfe – und werden echten Nutzern immer ähnlicher. Nun schlagen Forscher neue Methoden vor, den „Social Bots“ auf die Schliche zu kommen.

Sie sind mitten unter uns, sie treten mit uns in Kontakt, aber wir erkennen sie nicht: Die „Social Bots“, Roboter in sozialen Netzwerken, täuschen durch ihre Profile und Beiträge vor, Menschen wie du und ich zu sein. Ihre Programmierer meinen es nicht gut mit uns: Mit dieser Art von künstlicher Intelligenz lassen sich Kampagnen gegen Unternehmen anzetteln, Börsenkurse steuern, politische Stimmungen schüren, Falschmeldungen und Propaganda verbreiten und damit Wahlergebnisse manipulieren.

Plattformen wie Twitter oder Facebook setzten viel Geld und Personal ein, um des Problems Herr zu werden. Denn es gefährdet ihr Geschäftsmodell: Die Nutzer verlieren die Lust, sich auszutauschen, wenn sie fürchten müssen, mit böswillig programmierten Maschinen zu kommunizieren. Aber die Roboter werden menschenähnlicher – und damit schwieriger aufzuspüren.

Erst Menge, nun auch Qualität

Das zeigte vorigen Herbst eine Studie des Computerforschers Emilio Ferrara in Kalifornien, der das Treiben der Bots auf Twitter im US-Wahlkampf 2016 und vor den Midterm-Wahlen 2018 verglich. Während die falschen Profile 2016 das Netzwerk nur mit möglichst vielen identischen Botschaften überfluteten, waren sie zwei Jahre später weit raffinierter: Sie mischten sich in Diskussionen ein, waren also in der Lage, in verständlichen Sätzen Antworten zu schreiben.

Nun hat Ferrara mit seinem Kollegen Iacopo Pozzana einen Vorschlag gemacht, wie man den Social Bots besser auf die Schliche kommen kann – indem man beobachtet, welche (allzu) menschlichen Eigenschaften ihnen fehlen (Frontiers in Physics, 22. 4.).

Die Forscher nahmen dafür wie bei der ersten Studie historische Daten (in diesem Fall Twitter-Debatten vor der letzten Wahl in Frankreich) und identifizierten vermutliche Bots durch einen frei verfügbaren Detektor namens „Botometer“, der Profile nach rund 1200 Kriterien auf ihre Echtheit abklopft.

Nur Menschen werden müde

Dann suchten sie nach Indikatoren, die solche bestehenden Prüfprogramme nicht kennen, aber falsche Profile künftig verlässlicher aufspüren sollen. Fündig wurden sie bei der Dynamik, den ein Chatverlauf auf Twitter unter echten Menschen entwickelt.

Zuerst schreibt oder teilt jemand einen längeren Text, etwa darüber, warum Macron auf keinen Fall Präsident werden darf. Dann kommt eine Diskussion in Gang, immer mehr Nutzer schalten sich ein. Sie steuern widersprechende oder ergänzende Texte von Dritten bei („Retweets“) oder schreiben selbst Erwiderungen („Replies“). Manche fragen: „Wo hast du den Unsinn her?“, und die Befragten verweisen auf weitere Twitter-Nutzer als Quelle („Mentions“).

Diese Interaktionen nehmen bis zum sechsten Tweet stark zu und bleiben dann bis zum 20. auf dem hohen Niveau. Zugleich werden die geschriebenen Texte immer kürzer. Die Diskutanten ermüden. Vieles ist schon gesagt, muss nicht wiederholt werden, am Ende steht oft ein kurzes Hick-Hack, wie am Stammtisch.

So unterhalten sich eben Menschen – nicht aber Roboter: Sie kommen nicht in Fahrt und werden nicht müde. Ihre Beiträge behalten denselben temporalen Rhythmus, ihre Textlängen verändern sich nicht im Zeitablauf. So kann man sie entlarven – bis sie auch darin so werden wie wir.

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.