Dislike

Youtube: Ein Button ohne Wirkung?

FILE PHOTO: Silhouettes of laptop and mobile device users next to a screen projection of the YouTube logo in this picture illustration
FILE PHOTO: Silhouettes of laptop and mobile device users next to a screen projection of the YouTube logo in this picture illustrationREUTERS
  • Drucken

Mozilla, die Stiftung hinter des Firefox-Browsers, veröffentlicht eine Studie über die tatsächlichen Auswirkungen des „Dislike-Buttons“ auf den Youtube-Algorithmus.

Wenn die leistungsstarken Empfehlungsalgorithmen von Youtube die Nutzer zu Videos führen, die sie nicht mögen, ermutigt das Unternehmen die Nutzer, die "Gefällt mir nicht"- oder "Nicht interessiert"-Buttons zu drücken, um die Youtube-Software anzuweisen, diese Art von Inhalten nicht anzuzeigen. So weit die Theorie. Eine Studie von Mozilla, jener Stiftung hinter dem Firefox-Webbrowser, zeigt, dass selbst das aktive Nutzen dieser Funktionen kaum Auswirkungen auf den Algorithmus hat.

Zum Beispiel verhinderte der "Nicht interessiert"-Button nur 11 Prozent der Empfehlungen für ähnliche Videos, so Mozilla. Die "Dislike"-Schaltfläche verhinderte nur 12 Prozent. Die effektivste Kontrolle ist die Schaltfläche "Diesen Kanal nicht empfehlen", die in weniger als der Hälfte der Fälle (43 Prozent) funktioniert. Mozilla definierte die Videoähnlichkeit in Zusammenarbeit mit Forschungsassistenten der Universität von Exeter, die ein maschinelles Lernmodell entwickelten, das Elemente wie ähnliche Themen oder politische Meinungen untersucht.

Die Forschung basiert auf den Daten von mehr als 20.000 Teilnehmern, die freiwillig Mozillas „RegretsReporter" heruntergeladen haben, eine Browsererweiterung, die Mozillas Forschern Zugang zu den Youtube-Aktivitäten der Nutzer gibt. Das Projekt zielt darauf ab, Transparenz in die Empfehlungssoftware der Google-eigenen Videoseite zu bringen, ein undurchsichtiges System, dem vorgeworfen wird, Menschen zu Verschwörungstheorien, Desinformation und extremistischen Inhalten zu drängen.

Usermeinung: Kein Einfluss auf Empfehlungen

Zusätzlich zu den RegretsReporter-Daten befragte Mozilla mehr als 2700 Personen, die die Browsererweiterung heruntergeladen hatten, über ihre Erfahrungen bei dem Versuch, die Empfehlungen von Youtube zu beeinflussen. Fast 40 Prozent der Befragten gaben an, dass die Youtube-Kontrollen ihrer Meinung nach keinen Einfluss auf die Empfehlungen haben.

"Das wichtigste Ergebnis ist, dass einige der Eindrücke, die die Befragten geäußert haben, keine Kontrolle zu haben, sich tatsächlich in den Daten bestätigt haben", sagte Becca Ricks, eine leitende Mozilla-Forscherin und Mitautorin der Studie, in einem Interview. "Im Großen und Ganzen schlüpfen viele unerwünschte Videos durch."

Youtube-Sprecherin Elena Hernandez widersprach den Behauptungen der Studie gegenüber Forbes: "Mozillas Bericht berücksichtigt nicht, wie unsere Systeme tatsächlich funktionieren, und deshalb ist es für uns schwierig, viele Erkenntnisse zu gewinnen", sagte Hernandez in einer Erklärung. "Wir bieten den Zuschauern die Kontrolle über ihre Empfehlungen, einschließlich der Möglichkeit, ein Video oder einen Kanal zu blockieren, damit er ihnen in Zukunft nicht mehr empfohlen wird. Wichtig ist, dass unsere Kontrollen nicht ganze Themen oder Standpunkte herausfiltern, da dies negative Auswirkungen für die Zuschauer haben könnte, wie die Schaffung von Echokammern."

Die Welt der Youtube-Algorithmen

Die Algorithmen von Youtube empfehlen Inhalte in der Spalte auf der rechten Seite der Videoseite, im Videoplayer nach dem Ende des Inhalts oder auf der Startseite der Webseite. Jede Empfehlung ist auf den jeweiligen Betrachter zugeschnitten und berücksichtigt Dinge wie den Suchverlauf, die Liste der Kanalabonnements oder den Standort. Die Empfehlungen können harmlos sein, wie z. B. ein weiterer Live-Auftritt der Band, die sie sich gerade ansehen, aber Kritiker sagen, dass die Youtube-Empfehlungen die Zuschauer auch zu grenzwertigen und schädlichen Inhalten führen können.

Auch die "Dislike"-Schaltfläche von Youtube war eine Quelle der Kontroverse. Nutzer kritisierten das Unternehmen, nachdem die Plattform im November letzten Jahres aufhörte, die Anzahl der Ablehnungen bei Videos anzuzeigen. Viele orteten darin Zensur, auch, weil dadurch den Nutzern verborgen blieb, wie viele das Video zuvor bereits als schlecht bewerteten. Ein durchaus wichtiger Indikator, der dann nur noch den Inhalte-Erstellern zur Verfügung stand.

Für die Untersuchung von Mozilla entwickelte das Unternehmen eine Erweiterung im RegretsReporter-Addon: eine Schaltfläche "Stop recommending", die in der oberen linken Ecke der empfohlenen Videos für Nutzer erschien. Ein Klick auf die Schaltfläche löste eine der bestehenden Youtube-Kontrollen aus, einschließlich der Schaltfläche "Ablehnen" oder der Option "Aus dem Beobachtungsverlauf entfernen", wodurch Mozilla die verschiedenen Feedback-Funktionen testen konnte. Um eine Kontrollgruppe für das Experiment zu schaffen, fügte Mozilla auch eine Schaltfläche zum Beenden von Empfehlungen für einige Nutzer hinzu, die von vornherein überhaupt nichts bewirkte.

Mozilla hat die RegretsReporter-Erweiterung erstmals im September 2020 eingeführt. Der am Dienstag veröffentlichte Bericht ist die zweite große Forschungsarbeit, die mit diesem Tool durchgeführt wurde. Der erste Bericht, der im Juli letzten Jahres veröffentlicht wurde, behauptete, dass die Algorithmen von Youtube manchmal Videos empfehlen, die gegen die eigenen Richtlinien der Plattform verstoßen.

Mozilla untersucht Youtube schon länger

Mozilla hat die Algorithmen von Youtube schon lange unter die Lupe genommen. Im Jahr 2019 vergab die Organisation ein Stipendium an Guillaume Chaslot, einen ehemaligen Youtube-Ingenieur und unverblümten Kritiker des Unternehmens, um seine Forschung zu den Systemen der künstlichen Intelligenz der Plattform zu unterstützen. Vor zwei Jahren stellte Mozilla ein von ihr finanziertes Projekt namens TheirTube vor, mit dem man sehen kann, wie sich die Empfehlungen von Youtube für Menschen mit verschiedenen ideologischen Ansichten unterscheiden könnten.

Die Moderation von Youtube-Inhalten stand kürzlich im Rampenlicht. Letzte Woche sagten Führungskräfte von Youtube, TikTok, Meta und Twitter bei einer Anhörung des Senats für Innere Sicherheit über die Beiträge und Videos aus, die auf ihren Plattformen erscheinen. Der Youtube-Produktchef Neal Mohan stellte sich den Fragen zu Hassreden und Belästigung. Einen Tag später kündigte Mohan Änderungen an den Youtube-Richtlinien zu gewalttätigem Extremismus an und verbot Inhalte, die für extremistische Gruppen rekrutieren oder Spenden sammeln, selbst wenn die Inhalte nicht mit bekannten Terrororganisationen in Verbindung stehen.

>>> Does this Button work? Studie von Mozilla

Lesen Sie mehr zu diesen Themen:


Dieser Browser wird nicht mehr unterstützt
Bitte wechseln Sie zu einem unterstützten Browser wie Chrome, Firefox, Safari oder Edge.