„Niemand versteht die Zerstörende Kraft der Entscheidungen Facebooks“, sagt Ex-Mitarbeiterin Haugen. Der Konzern stelle Profit über Sicherheit.

Frances Haugen

Facebook-Whistleblowerin Frances Haugen bei ihrer Zeugenaussage vor einem Unterausschuss des US-Senats am 5. Oktober 2021

(Bild: Screenshot)

„Angesichts der gegebenen Anreize hat Facebook das Beste gemacht, was sie tun konnten“, sagte die Facebook-Whistleblowerin Frances Haugen am Dienstag bei einer Anhörung im US-Parlament, „unglücklicherweise sind diese Anreize nicht nachhaltig und inakzeptabel in unserer Gesellschaft.“ Die Voreingenommenheit der Algorithmen sei „ein großes Problem für unsere Demokratie“, erklärte sie dort. Ohne Transparenz „werden wir kein System haben, das mit unserer Demokratie kompatibel ist.“

Seit 2006 hat Haugen bei großen IT-Firmen gearbeitet: Google, Pinterest, Yelp und schließlich rund zwei Jahre bei Facebook, zuletzt in der Abteilung für Spionageabwehr. Aus Frustration darüber, dass Facebook praktisch an jeder Weggabelung den eigenen Profit über das Allgemeinwohl stelle, hat sie dort umfangreiche Dokumente gesammelt, die allen Facebook-Mitarbeitern zugänglich sind, und dem Wall Street Journal übergeben. Es folgte eine Serie von Enthüllungsberichten über Facebook, darunter über verheerende Auswirkungen Instagrams auf körperliche und geistige Gesundheit von Kindern.

Im Verbraucherschutz-Unterausschuss des US-Senats hat die Facebook-Whistleblowerin am Dienstag stundenlang Fragen der Senatoren beantwortet. Bis auf den Demokraten Ed Markey haben alle Mitglieder des Unterausschusses Geldspenden von Facebook angenommen, wie Forbes erhoben hat.

Dennoch wagte Haugen schwere Vorwürfe gegen Facebooks Management, drückte aber auch gewisses Verständnis für dessen Entscheidungen aus. Facebook brauche bei der Lösung der schwierigen Aufgaben Hilfe in Form von Aufsicht und regulatorischen Vorgaben.

Niemand habe vorgehabt, eine zerstörerische Plattform zu bauen, doch nun müsse Facebook den „moralischen Bankrott“ zugeben. „Facebook kauft sich seinen Profit auf Kosten unserer Sicherheit“, stellte Haugen fest. Der Datenkonzern forsche so intensiv wie kein anderes Soziales Netzwerk, halte negative Ergebnisse aber absichtlich versteckt.

Facebooks eigene Dokumente „beweisen, dass es die Öffentlichkeit wiederholt darüber in die Irre geführt hat, was die eigene Forschung über Sicherheit für Kinder offenlegt, über die Wirksamkeit seiner Künstlichen Intelligenz, und über seine Rolle bei der Verbreitung spaltender und extremistischer Mitteilungen.“

Section 230

Section 230 schützt interaktive Onlinedienste, die von Nutzern generierte Inhalte verbreiten, unter bestimmten Voraussetzungen davor, für diese Inhalte verantwortlich gemacht zu werden. Schließlich ist es Facebook, Twitter und Co. unmöglich, jedes Posting eines Users vor Veröffentlichung auf Wahrheitsgehalt oder mögliche Rechtswidrigkeit zu überprüfen.

Es gibt Ausnahmen, etwa bei Copyrightverletzungen oder Verweisen auf Prostitution, die gelöscht werden müssen. Zudem daf der Betreiber durch seine Nutzungsbedingungen Nutzern weitere Vorgaben machen. Tritt er allerdings darüber hinaus als Redakteur auf, verliert er die Immunität. Das Gesetz soll keine Herausgeber schützen, die für sich selbst veröffentlichen, sondern Betreiber, die technische Infrastruktur für Dritte bereitstellen.

Nun werde Facebook versuchen sich mit Änderungen am US-Datenschutzrecht und einer Reform der Umstritten „Section 230“ aus der Affäre zu ziehen, glaubt Haugen. Das aber „wird den Kern des Problems nicht angehen“, warnte sie. „Niemand versteht die zerstörende Kraft der Entscheidungen Facebooks – außer Facebook,“ ist sie sich sicher. Solange sich die Anreize nicht änderten, werde sich das Unternehmen nicht ändern, und weiterhin Entscheidungen treffen, die gegen das Allgemeinwohl gerichtet sind.

Als besonders übel erachtet die ehemalige Facebook-Mitarbeitern das „Engagement Based Ranking“. Das sind jene Algorithmen, die auf Basis von Kommentaren, Likes und Weiterverbreitungen entscheiden, wer bei Facebook und Instagram was vorgesetzt bekommt. Ob ein Kommentar freundlich, hasserfüllt oder Bullying sei, spiele für die Bewertung keine Rolle. „Facebook gestaltet unsere Wahrnehmung der Welt, indem es auswählt, was wir sehen“, erklärte Haugen. Selbst Personen, die Facebook gar nicht nutzten, würden davon beeinträchtigt.

Erschwert werde das Problem dadurch, dass es sich um geheime Algorithmen handelt, die Facebook nicht offenlegt und die von keiner unabhängigen Stelle kontrolliert werden: „Nur Facebook weiß, wie es den Newsfeed für Sie personalisiert.“ Das sei für einen so mächtigen und extrem profitablen Konzern nicht länger zu dulden.

Während Forscher bei anderen Datenkonzernen, darunter Google, die Suchergebnisse herunterladen und analysieren können, behauptet Facebook, wegen Datenschutz keine Daten herausgeben zu können. „Das ist unwahr“, erklärte die Whistleblowerin. Schlimmer noch: Facebook verstecke die Daten nicht bloß, sondern antworte sogar auf direkte Fragen irreführend. In einem Gerichtsverfahren habe Facebook behauptet, das Recht zu haben, nicht die Wahrheit sagen zu müssen – unter Verweis auf Section 230.

Facebook kenne die Gefahren seines Engagement Based Ranking: Inhalte, die extreme Reaktionen hervorrufen, würden häufiger kommentiert, weiterverbreitet oder geliket. Daher wählten die Algorithmen extreme Inhalte aus. „Das ist nicht unbedingt zu Ihrem Vorteil“, verdeutlichte Haugen, „Facebook weiß, dass andere Leute mehr Inhalte produzieren, wenn sie Likes, Kommentare und Reshares bekommen. Facebook bevorrangt Inhalte in Ihrem Feed, damit Sie kleine Dopamin-Belohnungen an Ihre Freunde verteilen, damit die mehr Inhalte produzieren.“ Facebook habe das durch eigene Experimente bestätigt.

Als einziger der zwölf Mitglieder des Verbraucherschutz-Unterausschusses des US-Senats hat Ed Markey, Demokrat aus Massachusetts, laut offiziellen Dokumenten keine Spenden Facebooks angenommen. Der Senator vergleicht das Verhalten des Datenkonzerns mit jenem der Tabakkonzerne.

(Bild: US Senat (gemeinfrei))

Der Konzern habe selbst eingestanden, dass das Engagement Based Ranking nur mit Sicherheitsmaßnahmen und Systemen zur Überwachung der Civic Integrity (etwa: Integrität staatsbürgerlicher Prozesse) sicher sei. Dafür setze Facebook Künstliche Intelligenz (KI) ein. Allerdings zeige Facebooks eigene Forschung, dass die KI nur zehn bis 20 Prozent von Hassrede oder Desinformation finde. Und ein Teil der User wird bewusst nicht geschützt, um beobachten zu können, was ihnen dann widerfährt.

Aus der eigenen Forschung wisse Facebook, dass insbesondere Witwen und Witwer, Geschiedene, jüngst in eine Stadt Gezogene und sonst einsame Menschen besonders anfällig für Desinformation seien: „Systeme, die Desinformation benachrangen sollen, funktionieren nicht mehr, wenn die Leute 2.000 Posts pro Tag anschauen.“

Für die meisten Sprachen der Welt habe Facebook gar keine Systeme für Civic Integrity und Sicherheit installiert. Ergebnis: Facebook wird unverblümt für Völkermord genutzt, beispielsweise in Myanmar und Äthiopien. Von den sechs in dem afrikanischen Land verbreiteten Sprachen verstehen Facebooks Algorithmen nur zwei, wusste Haugen zu berichten: „Das sind nur die einleitenden Kapitel einer Geschichte, die dermaßen furchtbar ist, dass niemand ihr Ende lesen möchte.“

Facebook kranke zudem daran, zu wenig qualifizierte Mitarbeiterinnen und Mitarbeiter für die Bandbreite an Projekten, die es aus eigenen Stücken angeht, zu finden. Das führe in einen Teufelskreis: Projektteams hätten zu wenig Personal, was zu Skandalen führe, was wiederum die Anwerbung von weiteren Menschen erschwere.

Die Folge sei implizite Entmutigung besserer Erkennungssysteme. Haugens eigenes Team für Spionageabwehr habe lediglich ein Drittel der bereits bekannten Fälle bearbeiten können. „Wir wussten, dass wir mit einem einfachen Erkennungssystem viel mehr Fälle finden würden.“ Eingerichtet wurde solch ein System nie, weil niemand dagewesen wäre, die gefundenen Fälle zu bearbeiten. Auch bei der Suche nach Konten von Kindern unter 13 Jahren, die offiziell nicht mitmachen dürfen, könne sich Facebook deutlich mehr anstrengen.

Die gute Nachricht: Haugen hält Facebooks Probleme für lösbar. „Ein sichereres, angenehmeres Soziales Netzwerk, das die Freie Rede respektiert, ist möglich.“ Die Auswahl der Inhalte durch Engagement Based Ranking müsse enden. Angezeigt sei ein anti-chronologischer Feed, bei dem die Nutzer selbst entscheiden, wem sie folgen und wessen Postings sie sehen möchten, mit moderatem Spamfilter. Eine Haftpflicht für die Ranking-Entscheidungen der eigenen Algorithmen würde automatisch das Aus für Engagement Based Ranking bringen, meint die Amerikanerin.

Außerdem brauche es Transparenz, datenschutzkonforme Offenlegung interner Daten und Forschungsergebnisse, eine neue, kompetente Aufsichtsbehörde, sowie ein höheres Mindestalter von 16 oder 18 Jahren für die Nutzung Sozialer Netzwerke – statt der derzeitigen Altersgrenze von 13 Jahren. „Die problematische Nutzung erreicht ihren Höhepunkt im Alter von 14 Jahren“, berichtete die Insiderin.

In dem jungen Alter würden Kinder angefixt, um Facebooks Nutzerwachstum auf Dauer zu sichern. „Es ist das selbe wie mit Zigaretten. Teenager haben keine gute Selbstbeherrschung. Sie sagen ausdrücklich ‚Ich fühle mich schlecht, wenn ich Instagram nutze, aber kann nicht aufhören, weil ich sonst sozial geächtet werde.‘ Wir müssen die Kinder schützen“, forderte Haugen.

Eltern stünden auf verlorenem Posten, weil sie in ihrer Jugend keine ähnlichen Erfahrungen gemacht hätten. Der Rat, Instagram gar nicht zu nutzen, sei schlecht. Die Nationale Gesundheitsforschungsbehörde der USA sowie Schulen sollten Eltern dabei helfen, ihre Kinder in Sachen Soziale Netzwerke zu coachen.

Manche Teenager erkennen die Gefahr durchaus, und raten Preteens dazu, selten zu posten und wenig über sich Preis zu geben. Anstatt solche guten Ratschläge zu forcieren, soll Facebook die eigene Marketingabteilung angewiesen haben, Teenager von Warnungen jüngerer Nutzer abzubringen, berichtete Haugen.

Facebook-Chef Mark Zuckerberg bei einer Anhörung im Wirtschaftsausschuss des US-Senats im November 2020. Der Verbraucherschutz-Unterausschuss ist ein Unterausschuss des Wirtschaftsausschusses.

(Bild: Screenshot)

Verantwortlich für die Krise sei schlussendlich Mark Zuckerberg, als CEO, Vorsitzender des Verwaltungsrates und Eigentümer von etwa 55 Prozent aller Stimmrechte. Seine Firma verdiene 40 Milliarden Dollar jährlich, habe also die Mittel, die Probleme zu lösen – wenn Zuckerberg denn wolle.

„Facebooks Verhaltensmuster ist Verstecken hinter Mauern und Agieren im Schatten. Und sie haben viel zu viel Macht in unserer Gesellschaft, um in dieser Weise operieren zu dürfen“, fordert Haugen Transparenz. „Sie sollten keine Geheimnisse haben dürfen, wenn Menschenleben auf dem Spiel stehen,“ mahnt sie.

Wahrscheinlich war es nicht der letzte Auftritt von Haugen im US-Parlament. Sie erwähnte Bedenken hinsichtlich der Nationalen Sicherheit. Facebooks Anstrengungen im Bereich der Spionageabwehr seien völlig unzureichend. Das legt eine Zeugenaussage in einem anderen Ausschuss, zumindest zum Teil hinter verschlossenen Türen, nahe.

 

Okt 2021 | In Arbeit | Kommentieren