Fake-News

Facebooks langsamer Kampf gegen Corona-Falschmeldungen

APA/AFP/JOSH EDELSON
  • Drucken

Langsam setzt auch Facebook Schritte gegen die Verbreitung von Falschinformationen im Zusammenhang mit dem Coronavirus. Unter anderem wurden Beiträge gelöscht, die das Trinken von Desinfektionsmittel propagierten.

Facebook hat seit April mehr als sieben Millionen Beiträge mit Informationen zum Corona-Virus gelöscht, die dem Online-Netzwerk zufolge die Gesundheit von Menschen gefährden könnten. Rund 98 Millionen weniger gefährliche Inhalte mit zweifelhaften Informationen seien mit Warnhinweisen versehen worden, teilte der Konzern am Dienstag mit. Youtube und Twitter versuchen seit geraumer Zeit effektiver gegen Falschmeldungen vorzugehen. Darunter scheut der Kurznachrichtendienst nicht davor, Meldungen des US-Präsidenten zu sperren.

Lange Zeit unternahm das von Mark Zuckerberg gegründete Unternehmen nichts gegen Falschmeldungen und Hasspostings. In einer Anhörung vor dem US-Kongress erklärte er vor einigen Wochen, man wolle nicht entscheiden, was falsch und was richtig sei.

Mit der Corona-Pandemie hat sich einiges geändert. Der Druck auf Facebook wurde größer. Seit einigen Wochen unternimmt man doch Schritte gegen potenziell gefährliche Informationen, etwa zu angeblichen Corona-Behandlungen, darunter das Trinken von Desinfektionsmitteln. Behauptungen dieser Art haben sich nach einer Pressekonferenz von US-Präsident Donald Trump Ende April rasend schnell verbreitet. 15 Personen wurden in Arizona mit Vergiftungen eingeliefert, vier Personen starben.

Trotz der ersten unternommenen Schritte räumte das Unternehmen zugleich ein, dass es die Coronakrise schwieriger mache, bei Beiträgen einzugreifen, die darauf hinweisen, dass Nutzer sich Schaden zufügen wollen. Während zur Erkennung etwa von Hassrede automatisierte Software eingesetzt werde, sei in diesen Fällen immer noch die Rolle menschlicher Prüfer sehr groß. Die Verlagerung aus den Büros ins Homeoffice habe deren Arbeit erschwert.

Seit Beginn der Pandemie warnt die Weltgesundheitsorganisation vor einer „Infodemie“. Die Verbreitung von Falschinformationen über soziale Netzwerke sei ebenso gefährlich wie das Virus selbst, das sich zudem noch schneller verbreite, erklärte WHO-Chef Tedros Adhanom Ghebreyesus schon zu Beginn der Münchner Sicherheitskonferenz im Februar.  Auch der deutsche Chefvirologe Christian Drosten warnte gemeinsam mit Kollegen vor der „tödlichen Verbreitung" von Falschinformationen, die durch Facebook, Twitter und Co. angefeuert werde. In einem Offenen Brief wandte er sich an Politik und die Plattformbetreiber, stärker dagegen vorzugehen.

Maßnahmen gegen Hasspostings

Facebook setzt aber nicht nur bei Corona-Falschmeldungen an, es wurden auch Fortschritte beim Vorgehen gegen Hass-Botschaften verkündet. 95 Prozent könne man mittlerweile automatisiert erkennen, im Gegensatz zu einer früheren Rate von 89 Prozent. Bei der zum Konzern gehörenden Instagram-Plattform sei diese Rate von 45 auf 84 Prozent gestiegen.

Die vermeldeten Fortschritte bei der Identifizierung von Hass-Botschaften führt Facebook teilweise auf den verstärkten Einsatz von automatisierten Verfahren zurück. "Wir haben Fortschritte im Kampf gegen Hass auf unseren Apps gemacht, aber wir wissen, dass wir mehr tun müssen, um sicherzustellen, dass sich jeder bei der Nutzung unserer Dienste wohl fühlt", erklärte Guy Rosen, einer der Vizechefs des Konzerns.

Facebook erließ auch neue Regeln für politische Gruppierungen, die sich bei ihrem Internet-Auftritt das Aussehen von Nachrichtenportalen geben. Diese Websites dürfen zwar auf den Facebook-Seiten präsent bleiben, sie erhalten aber nicht mehr die Vorzugsbehandlung von echten Nachrichtenanbietern, wie der Konzern mitteilte. Dies bedeutet, dass ihre Inhalte nicht mehr in den Feed Facebook News einlaufen.

(bagre/APA)

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.