In einem umfangreichen Report zeichnet die US-Nachrichtenagentur Bloomberg nach, wie YouTube in großem Stil versagt, problematische Inhalte auf der Video-Plattform unter Kontrolle zu bringen. Schlimmer noch: Hochrangige Mitarbeiter erklären, dass die Steigerung von Reichweite als wichtiger erachtet wird, als das Filtern von teils hochproblematischen Videos. YouTube erklärt hingegen, seine Bemühungen verstärkt zu haben. Dass es Probleme vor allem mit dem Empfehlungs-Algorithmus von YouTube gibt, ist nichts neues. Schaut man bei Alphabets Video-Tochter ein Video, bekommt man in einer Seitenleiste weitere Videos empfohlen. Diese Empfehlungen basieren auf einem Algorithmus und sollen Nutzer dazu animieren, möglichst viele weitere Videos zu schauen. 2018 berichtete der britische Guardian über ein Programm eines französischen Computer – wissenschaftlers, der bis 2013 für YouTube gearbeitet hat.

Er hat ein Programm entwickelt, das ermitteln sollte, welche Videos vom YouTube-Algorithmus über verschiedene Stufen hinweg empfohlen werden. Dabei zeigte sich, dass die empfohlenen Videos immer extremer und radikaler wurden. Über zunächst harmlose Suchanfragen landete man, folgte man den Empfehlungen, mit wenigen Klicks bei wüsten Verschwörungstheorien und extremistischen Inhalten.

Der Empfehlungs-Algorithmus

Laut Bloomberg-Bericht haben mehrere ehemalige und aktuelle YouTube-Mitarbeiter die Führung des Unternehmens immer wieder auf Probleme mit dem Empfehlungs-Algorithmus aufmerksam gemacht. Ein Mitarbeiter habe sogar eine mögliche Verbesserung vorgeschlagen: Videos, die problematisch sind aber nicht direkt gegen die Richtlinien verstoßen, sollten nicht gelöscht, aber von der Empfehlungs-Seite ausgeklammert werden. Der Vorschlag wurde zunächst abgelehnt.

Stattdessen arbeitete das YouTube-Management unter CEO Susan Wojcicki an einer neuen Methode, wie “Creators”, also die Ersteller von Videos, entlohnt werden sollten. YouTube bastelte ein System, nach dem Creators Geld nicht mehr aus Basis von Anzeigen erhalten hätten, sondern je nachdem, wieviel Engagement sie erreichen. Mit Engagement werden die Interaktionen eines Nutzers mit einem Inhalt gemessen. Also in etwa: Wieviele Kommentare gibt es, wie oft wird der Like-Button gedrückt, wie lange schauen sich Leute das Video an, wie oft wird es geteilt usw.. Damit wollte YouTube laut Bloomberg erreichen, dass Kanäle, die von der Werbewirtschaft eher gemieden werden, aber reichweitenstark sind (etwa Sex-Tipps) stärker monetarisiert werden. Das hätte aber auch dazu führen können, das radikale Kanäle, wie etwa der des vor allem in den USA bekannten Verschwörungstheoretiker Alex Jones (“Info Wars”) zu den am stärksten monetarisierten Kanälen bei YouTube zählen. Anzeigenkunden hätten somit – ohne es zu wollen – zweifelhafte Inhalte wie die von Jones mit finanziert. Das Projekt wurde laut Bloomberg aber von Alphabet-CEO Sundar Pichai abgelehnt.

Säuberungsaktion 2017

Als die Kritik an zweifelhaften Inhalten bei YouTube immer  größer wurde, hat der Tech-Gigant im November 2017 – laut Bloomberg – eine große Säuberungsaktion gestartet. Kanäle wurden entweder komplett entfernt oder ihnen wurde die Werbung entzogen. Mittlerweile machten nämlich auch Anzeigenkunden Ärger, weil sie nicht länger hinnehmen wollten, dass ihre Werbung im Umfeld von radikalen oder verstörenden Inhalten gezeigt wird. Konkreter Auslöser der Aktion waren Medien-Berichte über extrem verstörende Videos, die sich an Kinder richteten. Als schlimmsten Kanal nennt Bloomberg in diesem Zusammenhang “Toy Freak” – der Kanal eines Vaters, der seine Kinder filmte, wenn sie starke Schmerzen hatten oder sich übergeben mussten. Die Existenz des Kanals sei kein Geheimnis gewesen, schreibt Bloomberg, er habe vor seiner Entfernung über acht Millionen Abonnenten gehabt.

Doch auch nach der Säuberungsaktion gab es immer wieder Berichte, über unkontrolliert verbreitete Videos bei YouTube mit zweifelhaften Inhalten. Seien es Videos, in denen die Opfer eines Amoklaufs als Schauspieler bezeichnet werden oder Videos, die krude Verschwörungstheorien über das Impfen verbreiten.

YouTube hat inzwischen seine Bemühungen, solch zweifelhaften Inhalte stärker zu kontrollieren, verstärkt. Laut dem Unternehmen seien die Teams, die sich um die Moderation und das Einhalten von Richtlinien kümmern, verstärkt worden. Allerdings werden keine Zahlen genannt. Auch wurde erst kürzlich eine Funktion hinzugefügt, die bei zweifelhaften Inhalten automatisiert eine Info-Box mit Wikipedia-Inhalten anzeigt. Somit sollen offensichtlich unsinnige Verschwörungstheorien, etwa zum Impfen, mit Fakten konterkariert werden. YouTube-Chefin Wojcicki hat diese Funktion jüngst erst auf der Digital-Konferenz South by Southwest vorgestellt.

Eine YouTube-Sprecherin erklärte gegenüber Bloomberg, dass die Darstellung, Wojcicki und das Unternehmen würden die Prioritäten ausschließlich auf Engagement legen, falsch sei. YouTube habe sich in den vergangenen zwei Jahren darauf konzentriert, Lösungen für die beschrieben Probleme zu finden. 2016 habe das Unternehmen beispielsweise eine Messeinheit für “Social Responsibility” zum Empfehlungs-Algorithmus zugefügt. Im Januar 2019 sei zudem die zunächst abgelehnte Mechanik eingeführt worden, dass zweifelhafte Inhalte, die nicht gegen die Community-Richtlinien verstoßen, von den Empfehlungen ausgenommen werden. Bloomberg schließt seinen Artikel it einem Beispiel, das belegen soll, dass diese Bemühungen wohl nicht ausreichen. Als Beispiel dient ein Video des Kanals iHealthTube, das verspricht, jeder Krebs könne in Wochen geheilt werden. Das Video würde zwar nicht länger empfohlen, ein Wikipedia-Infokasten fehle aber und der Clip seit bereits über sieben Millionen mal angeschaut worden.

Dez 2019 | Allgemein, Essay, In vino veritas, Junge Rundschau, Kirche & Bodenpersonal, Politik, Sapere aude, Senioren | Kommentieren