Warum die sozialen Netzwerke im Fall Christchurch versagt haben

APA/AFP/ANTHONY WALLACE

Facebook, YouTube und Co. haben die Kontrolle über die Verbreitung des Christchurch-Videos verloren. Daran wird sich so schnell auch nichts ändern.

Tage nach dem verheerenden Attentat in Christchurch in Neuseeland versuchen Facebook, Twitter, YouTube und andere Plattformen, die Verbreitung des Videos zu stoppen. Mehr als 1,5 Millionen Mal löschte Facebook bereits das Video. Dennoch taucht es immer wieder von neuem auf. Auch auf der Facebook-Seite von Recep Tayyip Erdoğan, der die Videoaufnahmen des Attentäters für seinen Wahlkampf missbraucht.

"Das Internet vergisst nicht", ist keine leere Phrase. Hochgeladene Dateien können sich rasend schnell verbreiten. Offenbar auch, wenn es grausame Tötungen aus der Ich-Perspektive zeigt. Der Fall zeigt, dass trotz zahlreicher Filter und eingesetzter Mechanismen eine Verbreitung nahezu unaufhaltbar ist.

Dabei hat einer der Attentäter sich medial akribisch darauf vorbereitet. Wie die Rechercheplattform Bellingcat herausgefunden hat, wurde der Anschlag im Forum 8chan angekündigt; inklusive Link zum Facebook-Account. Auf der Webseite gibt es kaum Regeln für Nutzer. Zudem wurde das 84-seitige Manifest inklusive Links zu radikalen Webseiten veröffentlicht. Darüber hinaus finden sich darin Absätze, die provozieren und ablenken sollen. An einer Stelle heißt es zum Beispiel: "Fortnite hat mich das Töten gelehrt."

Ein besonders teuflischer Kniff

Während der Aufnahme des Attentats erinnerte der Attentäter daran, dem YouTuber Pewdiepie zu folgen. Felix Kjellberg alias Pewdiepie reagierte wie gewünscht. Er distanzierte sich online und trug ungewollt zu noch mehr Popularität bei.

Innerhalb weniger Stunden verbreitete sich das Video wie ein Lauffeuer. Kaum war es an einer Stelle gelöscht, tauchte es andernorts wieder auf. Da half es auch nichts, dass die Twitter- und Facebook-Konten des mutmaßlichen Täters stillgelegt wurden.

Normalerweise vertraut Facebook auf ein System aus Nutzermeldungen und eigenen Filtern. Eingesetzt wird es normalerweise bei Kinderpornographie und gewaltverherrlichenden Bildern. Proaktiv sind diese Filtermechanismen aber nicht. Erst wenn eine Aufnahme als bedenklich gemeldet wird, greifen die Kontrollmaßnahmen. Der Algorithmus erkennt ein Bild und erstellt davon einen digitalen Abdruck, um es bei einem neuen Upload-Versuch zu erkennen und sofort zu löschen. 1,2 Millionen Mal konnte damit der neuerliche Upload verhindert werden. Zudem löschte Facebook 1,5 Millionen Mal das Video innerhalb der ersten 24 Stunden.

Das Problem beim Fall Christchurch war und ist, dass das Attentat über die Funktion Facebook-Live verbreitet wurde. Darin kommt kein Filter zum Einsatz. Es zeigt aber auch, dass Facebooks interne Mechanismen versagt haben. Erst nachdem die Polizei das Video meldete, wurden die Konten des Nutzers und das Video gelöscht. Mehr als 17 Minuten konnte der Attentäter seine Tat ungehindert online übertragen. Von diesem Material wurden tausendfach Kopien erstellt, die sich wiederum vom Original unterschieden und so durchrutschen konnten.

Lässt sich die Verbreitung verhindern?

Nein, einerseits weil Facebook, YouTube und Co. aktuell kein adäquates System haben, um Uploads in Echtzeit zu kontrollieren. Und das obwohl bei Facebook aktuell mehr als 15.000 Menschen damit beschäftigt sind, die Plattform nach Hassbeiträgen, Gewalttaten und Kinderpornografie zu durchforsten. Dem gegenüber stehen 2,7 Milliarden aktive Facebook-Nutzer. Eine "David gegen Goliath"-Situation, bei der aber Goliath die Oberhand behält. Auf YouTube sieht es nicht anders aus. Täglich werden mehr als eine Milliarde Stunden an Inhalten konsumiert und pro Minute kommen 400 Stunden neues Videomaterial dazu. Eine schier unbeherrschbare Menge an Inhalten.

Doch nicht nur neue Medien haben zur Verbreitung des Videos beigetragen. Viele Nachrichtenseiten zeigten kurze Ausschnitte des Videos und haben so ebenfalls zur viralen Verbreitung beigetragen.

Kritik aus Politik - doch keine Lösung in Sicht

Aus Sicht von Kritikern machen die US-Konzerne grundsätzlich aber viel zu wenig. Tatsächlich wird die Kontrolle oft auf Sub-Unternehmer ausgelagert, die Leute zu Billiglöhnen in ärmeren Ländern beschäftigen. Christchurch zeigt die aktuellen Defizite und könnte zugleich die Bereitschaft der Politik senken, die Schwächen hinzunehmen. So sagte der einflussreiche US-Senator Mark Warner der Website "The Hill", die rasche Verbreitung des Videos zeige, wie leicht die großen Plattformen immer noch missbraucht werden könnten.

Der britische Innenminister Sajid Javid sagte nach der Tat, die sozialen Netzwerke müssten eine Mitverantwortung übernehmen. "Ihr müsst mehr tun, um die Werbung für gewaltsamen Extremismus auf euren Plattformen zu stoppen", schrieb er auf Twitter an Youtube, Google, Facebook und Twitter gerichtet. "Genug ist genug."

Für den Terrorismus-Experten Peter Neumann ist jedoch eine 100-prozentige Live-Überwachung von Facebook, YouTube und Twitter und anderen Plattformen unrealistisch, aber er ist davon überzeugt, dass mehr Kontrolle möglich wäre. "Gegen die rasante und massenhafte Verbreitung lässt sich nur mit mehr Einsatz von Personal und Technik vorgehen, mit deren Hilfe diese brutalen Videos gelöscht werden", sagte Neumann.