Experiment

TikTok genehmigt Anzeigen mit Fehlinformationen über Wahlen

TikTok hat 90 Prozent des Werbematerials trotz fälschlichen Informationen freigeschaltet.
TikTok hat 90 Prozent des Werbematerials trotz fälschlichen Informationen freigeschaltet. (c) APA/dpa/Marijan Murat (Marijan Murat)
  • Drucken

Wahlwerbungen mit offensichtlich falschen Informationen, etwa, dass die Wahltage verlängert würden oder man für die Teilnahme geimpft sein müsste, wurden von TikTok durchgewinkt. Auch Facebook schnitt beim Experiment schlecht ab.

Zwanzig Anzeigen mit „eklatanten“ Fehlinformationen zur anstehenden US-Wahl am 8. November schickten Forschende im Rahmen eines Experiments an die Social-Media-Plattformen TikTok, Facebook und YouTube. Ausgerichtet waren jene auf umkämpfte Staaten wie Arizona und Georgia. Etwa besagten die Werbungen, dass die Wahltage verlängert würden und Social-Media-Konten als Mittel zur Wählerverifizierung dienen könnten. Auch abschreckende Information, beispielsweise, dass das Ergebnis schon vorher feststünde oder Wahlergebnisse gehackt werden könnten, enthielt der ein oder andere Spot. Einer besagte, dass nur geimpfte Personen an der Wahl teilnehmen dürften.

Der Bericht zur Studie, veröffentlicht von der Menschenrechtsorganisation Global Witness und des Cybersecurity for Democracy Team (C4D) der New York University (NYU), zeigt große Lücken im Genehmigungsprozess mancher Plattformen auf. So hat das Videoschnipselportal TikTok 90 Prozent des Werbematerials trotz fälschlichen Informationen freigeschaltet. Das ist vor allem deshalb besorgniserregend, weil immer mehr junge Menschen TikTok auch als Suchmaschine oder generelle Nachrichtenquelle heranziehen. Das „Wall Street Journal“ bezeichnete das soziale Netzwerk gar schon als das „neue Google“ und die „Suchmaschine der Generation Z“. Auch „CNN“ schreibt der Plattform zunehmenden Einfluss auf die US-Politik zu.

Einmal genehmigt, wurden die Anzeigen vom Forschungsteam zurückgezogen, sodass die Anzeigen mit Fehlinformationen den Nutzerinnen und Nutzern nicht angezeigt wurden.

Gut gemeint

Dabei hat die Plattform erst im August ein sogenanntes Wahlzentrum eingerichtet, um „Menschen, die sich mit Wahlinhalten beschäftigen, mit verlässlichen Informationen zu verbinden“, einschließlich der Hinweise, wo und wie man wählen kann. Auch wurden Kennzeichnungen hinzugefügt, um Inhalte, die sich auf die Midterm Elections beziehen, eindeutig identifizieren zu können, liest es sich in einem Blogbeitrag des Unternehmens. In einem weiteren Schritt wollte TikTok „politische Werbung“ gar verbieten. An der Umsetzung hapert es wohl noch hier und da. Vonseiten TikTok hieß es lediglich, man schätze „das Feedback von NGOs, Akademikern und anderen Experten, das uns hilft, unsere Prozesse und Richtlinien kontinuierlich zu verbessern“.

Auch Facebook genehmigte einen „signifikanten Teil“ der Videos, wie es im Bericht heißt. 40 Prozent der Videos mit falschen Informationen wurden auf der Meta-Plattform freigeschaltet. Als Reaktion auf den Bericht sagte ein Sprecher des Unternehmens, die Tests würden „auf einer sehr kleinen Stichprobe von Anzeigen basieren“ und wären angesichts der Anzahl politischer Anzeigen, die tagtäglich weltweit überprüft werden müssten, nicht repräsentativ. Und weiter: „Unser Anzeigenüberprüfungsprozess umfasst mehrere Ebenen der Analyse und Erkennung, sowohl vor als auch nach der Veröffentlichung einer Anzeige.“ 

YouTube als Vorzeigeplattform

Einzig YouTube bestand den Test des Forschungsteams, indem die Plattform alle zwanzig Videos zurückwies. „Die Leistung von YouTube in unserem Experiment zeigt, dass es nicht unmöglich ist, schädliche Wahldesinformation zu erkennen“, sagte Laura Edelson, Co-Direktorin des C4D-Teams der NYU, in einer Erklärung zu dem Bericht. Allerdings zeigten vergangene Experimente, dass YouTube nicht in allen Regionen derart vorbildlich handelt. Etwa hat die Videoplattform in Brasilien wahlbezogene Desinformation zur Gänze zugelassen, die internationale Durchsetzung der Richtlinien weist demnach noch große Lücken auf.

„Alle Plattformen, die wir untersucht haben, hätten für diese Aufgabe eine Eins bekommen müssen. Wir fordern Facebook und TikTok auf, es besser zu machen: schlechte Informationen über Wahlen zu stoppen, bevor sie zu den Wählern gelangen.“ YouTube solle bei der Moderation von Inhalten nicht nur in den Vereinigten Staaten, sondern weltweit auf Strenge setzen.

(evdin )

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.