Der Algorithmus von YouTube scheint die Leute zu Alt-Right-Videos zu leiten

Kategorie:Mensch und TechnikGesendet29. Jan hand hält youtube rassismus alt rechts alt lite intellektuell dark web media empfehlungsalgorithmus weit hand hält youtube rassismus alt rechts alt lite intellektuell dark web media empfehlungsalgorithmus weit

Eine neue lernen legt nahe, was wir seit Jahren vermuten, ist richtig: YouTube ist eine Pipeline für Extremismus und Hass.

Woher wissen wir das? Mehr als 330.000 Videos auf fast 350 YouTube-Kanälen wurden analysiert und nach einem von der Anti-Defamation League entwickelten System manuell klassifiziert. Sie wurden entweder als Medien (oder was wir als sachliche Nachrichten betrachten), alternatives intellektuelles dunkles Netz oder alternatives Recht bezeichnet.



Die Gruppen: Die Alt-Right ist das, was traditionell mit weißer Vormachtstellung in Verbindung gebracht wird und auf einen weißen Ethnostaat drängt. Diejenigen, die sich dem intellektuellen Dark Web anschließen, rechtfertigen die weiße Vorherrschaft auf der Grundlage von Eugenik und Rassenwissenschaft. Mitglieder der Alt-Lite geben vor, die Vorherrschaft der Weißen nicht zu unterstützen, obwohl sie an Verschwörungstheorien über die Ersetzung durch Minderheiten glauben.

Tor: Die Autoren der Studie stellten die Hypothese auf, dass das Alt-Lite und das intellektuelle Dark Web oft als Tor zu extremeren, rechtsextremen Ideologien dienen. Also haben sie das getestet, indem sie die Autoren von 72 Millionen Kommentaren zu etwa zwei Millionen Videos zwischen Mai und Juli letzten Jahres nachverfolgt haben. Die Ergebnisse waren besorgniserregend. Mehr als 26 % der Personen, die Alt-Lite-Videos kommentierten, wechselten tendenziell zu Alt-Right-Videos und kommentierten anschließend dort.

Schuldzuweisungen: Es ist ziemlich einfach, mit einer einfachen Suche zu Alt-Lite- und intellektuellen Dark-Web-Inhalten zu gelangen, aber Alt-Right-Videos sind für Erstbenutzer tendenziell schwieriger zu finden. Die Forscher fanden jedoch heraus, dass der Algorithmus von YouTube Benutzer, die nach bestimmten Schlüsselwörtern suchten, häufig zu immer gewalttätigeren, extremeren Inhalten leitete.

Und es wird immer schlimmer: Das Team der Eidgenössischen Technischen Hochschule Lausanne fand auch Beweise dafür, dass die Überschneidung zwischen Alt-Rightern und anderen, die sich mit intellektuellem Dark Web und Alt-Lite-Material beschäftigen, zunimmt. Die Autoren schätzen, dass etwa 60.000 Personen, die Alt-Lite- oder intellektuelle Dark-Web-Inhalte kommentierten, über einen Zeitraum von etwa 18 Monaten Alt-Right-Videos ausgesetzt waren. Die Arbeit wurde diese Woche auf der 2020 Conference on Fairness, Accountability, and Transparency in Barcelona vorgestellt.

Wir wissen immer noch nicht viel über YouTube-Radikalisierung: Zum einen sind wir uns nicht ganz sicher, was die Leute dazu bringt, von Alt-Lite-Material zu rechtsextremem Material zu wechseln. Das liegt teilweise daran, dass YouTube den Zugriff auf Empfehlungsdaten einschränkt. Es ist auch möglich, dass einige Leute bereits zu YouTube kommen, nachdem sie bereits von einer externen, nicht-YouTube-Quelle radikalisiert wurden. Aber diese Forschung deutet darauf hin, dass die Empfehlungsalgorithmen von YouTube eine wichtige Rolle spielen könnten.

Der Hintergrund: YouTube hat lange mit dem Gleichgewicht zwischen der Wahrung der Meinungsfreiheit und der Bekämpfung von Hassrede zu kämpfen. Das Unternehmen hat erste Schritte unternommen, indem es einige Kanäle verboten hat, insbesondere Infowars von Alex Jones. Kritiker argumentieren jedoch, dass YouTube nicht genug getan hat.

In einer Erklärung sagte YouTube, dass es an diesen Problemen arbeitet: In den letzten Jahren … haben wir unsere Such- und Erkennungsalgorithmen geändert, um sicherzustellen, dass maßgeblichere Inhalte auftauchen und in Suchergebnissen und Empfehlungen deutlich gekennzeichnet werden, und haben begonnen, Empfehlungen von grenzwertigen Inhalten zu reduzieren und Videos, die Benutzer auf schädliche Weise falsch informieren könnten.'

Ein Sprecher fügte hinzu, dass YouTube die Methodik bestreite und neuere Aktualisierungen seiner Hassreden-Richtlinie oder -Empfehlungen nicht berücksichtige. 'Wir sind mit der Methodik, den Daten und vor allem den Schlussfolgerungen dieser neuen Forschung nicht einverstanden', sagte der Sprecher.

Anmerkung der Redaktion: Diese Geschichte wurde bearbeitet, um den Kommentar und den Einspruch von YouTube aufzunehmen.