Rabbit-Hole-Effekt: Studie sieht keine algorithmische YouTube-Radikalisierung

Für die Radikalisierung, die in westlichen Gesellschaften zu beobachten ist, werden immer wieder Social-Media-Plattformen und insbesondere Youtube verantwortlich gemacht. Dessen Empfehlungsalgorithmus gepaart mit Autoplay-Mechanismen führe dazu, dass den Zuschauern mit der Zeit immer extremere Videos gezeigt würden.

Die Vorstellung: Wie in „Alice im Wunderland“ geraten sie immer tiefer in den medialen Kaninchenbau einer skurrilen und verstörenden Parallelwelt, aus der sie nur schwer wieder herausfinden, weshalb dieser Vorgang als Rabbit-Hole-Effekt bezeichnet wird. Die These scheint gut belegt zu sein, schließlich wurden in den vergangenen Jahren immer neue, eindrucksvolle Geschichten von Menschen veröffentlicht, die explizit angaben, durch Youtube und immer extremere Videos radikalisiert worden zu sein. Die Vorwürfe führten dazu, dass die Google-Tochter selbst besonders radikale Inhalteanbieter von der Plattform warf und die verwendeten Algorithmen anpasste, sich aber weiterhin nicht immer an die eigenen Richtlinien zu halten scheint.

In einer aktuellen Studie geht die amerikanische Forscherin Homa Hosseinmardi mit ihrem interdisziplinären Team im Bereich der computergestützten Sozialwissenschaften nun der Frage nach, inwiefern der Empfehlungsalgorithmus auf Youtube wirklich zu einer Radikalisierung der Zuschauer führt. Das Team analysierte das Online-Verhalten von rund 300.000 US-Bürgern in den vier Jahren von Januar 2016 bis Dezember 2019. Dabei untersuchten die Forscher mehrere Fragen: Schauten die Personen politische Videos? Wenn ja, welchen politischen Richtungen sind diese Videos zuzuordnen? Kamen sie über eine Suche, einen externen Link oder den Empfehlungsalgorithmus an diese Videos? Und steigerten diejenigen, die rechtsradikale Inhalte ansahen, mit der Zeit ihren Konsum?

Weiterlesen im MIT Technology Review