Ende Mai wurde ein Bild millionenfach in den Instagram-Storys gepostet. Vielleicht hast du es auch gesehen – oder sogar geteilt: Bei diesen Storys fordert Instagram dich auf, das Bild auch zu teilen, mit dem Slogan “Du bist dran!”, als könnte man am Ende etwas gewinnen, wenn man das Bild auch in der eigenen Story postet.Bei genauerem Hinschauen merkt man schnell: Irgendwas stimmt hier nicht. Die schneebedeckten Berge im Hintergrund passen nicht zur Landschaft vor Ort, und die Zelte in den Lagern von Rafah sind ganz sicher nicht so ordentlich aufgereiht, wie das Bild vermitteln möchte. Schnell kommt heraus: Das Bild ist von einer künstlichen Intelligenz (KI) generiert – es ist ein Fake.

 

 

 

 

 

 

Beim Teilen hat man vielleicht nicht sofort daran gedacht – und ob es von einer Maschine oder einem Designer mit Photoshop kreiert wurde, sei doch eigentlich egal – oder? Die Message ist ja trotzdem klar: Man möchte seine Anteilnahme ausdrücken.

Doch ist das wirklich egal – wenn ein KI-generiertes Bild ohne eindeutige Kennzeichnung und kontextlos geteilt wird, Instagram einen noch dazu aufruft und eine komplexe politische Debatte so zum Social-Media-Trend wird? Durch solche Aktionen können sich Desinformationen und Fake News besonders schnell verbreiten – wenn Nachrichten, Bilder oder Videos ohne nötigen Kontext geteilt werden.

Was ich nicht möchte: die dahinterliegende Debatte rund um Israel und Palästina beurteilen, denn da gibt es Menschen, die viel besser dafür geeignet sind, diese komplexe Lage einzuordnen. Ich möchte dieses “All Eyes on Rafah”-Bild jedoch zum Anlass nehmen, um als Journalistin den bedenklichen Umgang mit Nachrichten, unser Nachrichtenbewusstsein und unsere Medienbildung zu hinterfragen – und Lösungsansätze von Expert:innen teilen.

Gamification von Nachrichten und “Klicktivismus”

Das KI-generierte Bild mit “All Eyes on Rafah” war keine groß angelegte Desinformationskampagne – so viel ist klar. Doch es zeigt, wie einfach politische Nachrichten und KI-generierte Bilder zum viralen Trend werden können. Wenn wir im Zusammenhang mit politischen Nachrichten oder Bildern die Funktion “Du bist dran!” sehen – sollte uns allein das einen Moment innehalten lassen. Wir sollten uns immer fragen: Wieso soll ich dieses Bild teilen? Wer profitiert davon, dass ich es teile? Wo kommt dieses Bild her und wer hat es erstellt? Trägt dieses Bild zu einem gesunden Diskurs bei?

KI wird immer häufiger verwendet, um politische Debatten zu unterstützen. Oftmals ist es egal, dass man auf den zweiten Blick schon erkennt, dass es von künstlicher Intelligenz generiert wurde – wichtig ist nur, dass es emotionalisiert. Dieser Umstand zusammen mit dem Phänomen, das die Bundeszentrale für politische Bildung “Klicktivismus” nennt, ist eine explosive Mischung.

Beim Klicktivismus (bzw. negativ auch Slacktivismus genannt) gibt es zwar mehr Möglichkeiten, an einem gesellschaftlichen und politisch wichtigen Diskurs teilzunehmen, gleichzeitig ist die Teilnahme aber häufig unreflektiert und hat selten reale Auswirkungen auf politische Geschehen. Man wird dazu gedrängt, eine Meinung abzugeben – obwohl man sich vielleicht überhaupt nicht mit dem Thema auskennt. Das kann auch dazu führen, dass falsche Informationen und/oder KI-Bilder geteilt werden, ohne dass dieses Geschehen reflektiert oder der entsprechende Kontext gegeben wird.

Wieso fallen wir so leicht auf Desinformationskampagnen, Fake News und KI-Bilder rein?

“Wir leben in einer Zeit von gefühlten Fakten”, sagt Menschenrechtsaktivistin, Journalistin und Dokumentarfilmerin Düzen Tekkal im Podcast von YouTube Creators.

Um Fakten von gefühlten Fakten bzw. Fiktion zu unterscheiden und Fake News zu erkennen, ist eine Sensibilisierung mit dem Umgang von Medien und dem Internet wichtig. Doch Medienbildung wird in der Schule und auch im Berufsleben nicht priorisiert. Wir alle müssen aber akzeptieren, dass sich die Medienlandschaft so schnell verändert, dass wir gar nicht mehr hinterherkommen, wenn wir es nicht aktiv versuchen. Wenn die Gesellschaft nicht auf einem Stand ist, was Fake News, KI etc. betrifft, dann ist es extrem schwierig, sich vor Desinformation zu schützen.

“Wir können den Einfluss von TikTok, der auch eine sehr toxische Seite hat, nicht ignorieren”, fährt Düzen Tekkal fort und geht auch auf den Internetauftritt der AfD ein. “Wir können nicht so tun, als hätte das keine Wirkmacht, wenn unsere Nichten und Neffen TikTok auch als Quelle benutzen und ihre Informationen daraus beziehen.”

Das ist nicht nur für die junge Gesellschaft auf TikTok ein Problem, sondern vor allem auch ältere Menschen, die zwar mit dem Medienwandel aufgewachsen sind, aber sich nicht häufig damit beschäftigen. Bewegtes Bild wird häufig als besonders vertrauenswürdig und legitim angesehen – doch durch KI und Manipulationstechniken kann auch hier getrickst werden. Der Unterschied zwischen Wahrheit und gefühlten Fakten wird uns in Zukunft immer mehr beschäftigen und auch weitere Wahlen (siehe Europawahl) beeinflussen. Deswegen ist es wichtig, dass wir alle – ob jung oder alt – Maßnahmen lernen, um uns vor Manipulation zu schützen.

Wie kann ich mich vor Desinformationen, KI und Fake News schützen?

Düzen Tekkal spricht in diesem Podcast von YouTube Creators auch über eine Initiative von Google und Partnern, die Videos erstellt haben, die gängige Techniken vorstellen, wie manipulative Desinformation funktioniert. Wenn man diese Techniken einmal verstanden hat, dann kann man sich leichter vor Fake News schützen. Denn eine Sensibilisierung für die Medien, die man täglich nutzt, ist besonders wichtig, um kritisch zu hinterfragen, was man konsumiert.

Mit diesen drei Methoden kannst du Online-Manipulation erkennen:

1. Die Sündenbock-Methode

Eine einzelne Person oder eine bestimmte Gruppe wird beschuldigt, ein komplexes Problem zu verursachen. Zum Beispiel: “Die Touristen machen unseren Park schmutzig” oder “Die Ausländer nehmen unsere Jobs weg.” Die Verantwortlichkeit für das Problem scheint plötzlich sehr simpel, und keine anderen Ursachen werden aufgeführt oder herangezogen.

Wenn dir diese Warnzeichen auffallen, dann solltest du das Video/den Post am besten nicht weiter teilen, sondern kritisch darüber nachdenken, ob die Ursache des Problems nicht doch etwas differenzierter ist, als es der Post oder das Video anklingen lässt. Führe am besten noch eine Recherche mit verschiedenen Quellen durch und informiere dich über andere Meinungen.

2. Dekontextualisierung

Wenn du auf überraschende, schockierende oder ungewöhnliche Inhalte stößt, dann solltest du am besten einen Moment nachdenken, bevor du das Video teilst.

Schau dir das Bild oder Video auch ganz genau an: Könnte es KI generiert worden sein oder mit Bearbeitungsprogrammen manipuliert? Ist es aus dem Kontext gerissen worden? Wo ist die Quelle für das Bild/Video und wer hat es als Erstes geteilt? Welche Emotion soll das Video/Bild in uns auslösen?

Achte immer auf die Quelle und recherchiere, was diese vielleicht sonst noch gepostet hat oder ob sie vertrauenswürdig aussieht. Das kann natürlich extrem schwer sein, doch je öfter man sich damit auseinandersetzt, desto eher erkennt man die Anzeichen von unseriösen Quellen. Es lohnt sich immer, bei einer Website zum Beispiel das Impressum zu überprüfen, den:die Autor:in zu recherchieren und/oder eine Faktencheck-Website heranzuziehen. Hat die Person schon öfter schockierende Nachrichten geteilt oder postet vor allem KI-generierte Inhalte? Dann ist Vorsicht geboten.

Wenn man ein Bild oder Video ohne Weiteres repostet oder teilt, kann man unwissentlich Fehlinformationen verbreiten. Deswegen solltest du vor allem bei Nachrichten, die dich besonders überraschen oder wütend machen, immer erst eine eigene Recherche mit vertrauenswürdigen Quellen starten.

3. Rufschädigung

Wenn der allgemeine Charakter einer einzelnen Person oder einer Gruppe infrage gestellt wird, Gegenargumente ignoriert und zurückgewiesen werden und die Glaubwürdigkeit ohne Beweise infrage gestellt wird, dann können das alles Anzeichen für eine Manipulation sein. Vor allem, wenn die Anklage ursprünglich nur von einer Person stammt.

Informiere dich, woher die Anschuldigungen kommen, und reflektiere, bevor du etwas teilst, ob dies nicht subjektive Einschätzungen oder sogar Inhalte sind, die von künstlicher Intelligenz erstellt worden.

Übrigens: Auch eine Google-Suche sollte immer kritisch hinterfragt werden! Erstens kann heutzutage wirklich fast jede:r eine Website mit Fake-Informationen erstellen. Zweitens verwendet auch Google künstliche Intelligenz für seine Inhalte. In Deutschland und Europa ist die Funktion “Overview” zwar noch nicht eingeführt worden, doch in den USA sorgt sie bereits für Schlagzeilen. Dabei beantwortet Google deine Frage, indem eine KI Informationen aus dem Netz für dich zusammensucht. Doch auch Google fällt es schwer, einzuschätzen, welche Informationen nun wirklich als vertrauenswürdig gelten, und teilt den Fragenden häufig Fake News mit. Deswegen solltest du immer selbst die Quelle überprüfen, von der du deine Informationen nimmst!

Wenn du jetzt also recherchierst, woher das Bild mit “All Eyes on Rafah” kommt, dann stößt du vermutlich auf den Fotografen Chaa (@shahv4012), wie unter anderem der Tagesspiegel berichtet. Der Fotograf postet in seiner Story immer wieder KI-generierte Inhalte, die stark emotionalisieren sollen und zum Teilen anregen. Die Nachrichtenseite Watson berichtet, dass der Account teils antisemitische Inhalte postet, wie man in seinen Story-Highlights sehen kann. Ob das Teilen eines seiner Bilder in der Story hilfreich für die Menschen in Not vor Ort ist oder zu einem gesunden Diskurs beiträgt, bleibt weiter höchst fraglich.

Jun 2024 | In Arbeit | Kommentieren

Kommentar abgeben