Ein Europol-Bericht widmet sich den Folgen von ChatGPT, wenn Kriminelle die Fähigkeiten des Chatbots für sich ausnutzen: Es drohe vermehrt Phishing und noch mehr Desinformation. Ein Problem für die Strafverfolgung könne auch automatisiert erzeugter bösartiger Quellcode sein.
Heute hat Europol einen kurzen Forschungsbericht mit dem Titel „ChatGPT – The impact of Large Language Models on Law Enforcement“ (pdf) vorgestellt. Der Bericht setzt sich mit der heutigen und der bereits absehbaren kriminellen Nutzung von ChatGPT und der sich daraus ergebenden Strafverfolgung auseinander. ChatGPT ist ein sogenannter Chatbot des Anbieters OpenAI in Partnerschaft mit Microsoft, der im November 2022 veröffentlicht wurde und plausibel klingende Textantworten produziert.

Im Bereich der „Künstlichen Intelligenz“ gehört ChatGPT zur Klasse der sogenannten künstlichen neuronalen Netzwerke und hier speziell der LLMs (Large-Language-Modelle), die Sprachmuster nachbilden. Auch die Konkurrenz von Microsoft und OpenAI arbeitet an vergleichbaren KI-Modellen, die nach einem Eingabebefehl verständliche Texte auswerfen.
Wer sich schon länger mit der kriminellen oder generell mit der unethischen Nutzung von Technologien des maschinellen Lernens auseinandersetzt, findet im Bericht des „Europol Innovation Lab“ zwar keine augenöffnenden Neuigkeiten. Allerdings bietet dieser eine praxisbezogene Zusammenfassung dessen, womit sich Strafverfolger heute oder in naher Zukunft befassen müssen. Der Bericht ist das Ergebnis verschiedener Workshops, in denen Ermittler von ihren bisherigen Erfahrungen berichtet hatten. Es gibt noch eine erweiterte Berichtsversion, die aber nicht öffentlich zugänglich ist.

Was Ermittlern Sorge bereitet

Ein Problemfeld bei den Sprachmodellen sieht der Europol-Bericht im Bereich Propaganda und Falschinformationen. Da ChatGPT auf Knopfdruck und „in großem Umfang authentisch klingende Texte“ liefere, sei „das Modell ideal für Propaganda- und Desinformationszwecke“. Der Aufwand sei gering, um auf diese Weise Falschnachrichten zu erstellen.
Der Europol-Bericht betrachtet zwar nicht allgemein KI-Anwendungen, sondern nur speziell das textbasierte ChatGPT. Ein Teilbereich, der sich für Desinformation und absichtliche Falschdarstellungen aber in Kombination mit ChatGPT anbietet, ist die Bildgenerierung. Sie hat jüngst große Verbesserungen gezeigt: Erzeugte Bilder von tatsächlichen Fotografien zu unterscheiden, ist bei einer Vielzahl von Bildern kaum mehr möglich.

Laut der Europol-Berichterstatter kann ChatGPT auch Betrug und Techniken des Social Engineerings den Weg ebnen. Insbesondere beim Phishing versucht der Angreifer, potentiellen Opfern fingierte Informationen in vertrauenserweckendem Aussehen unterzuschieben, meist um an Passwörter und andere persönliche Daten zu gelangen. Weil ChatGPT realistisch wirkende und grammatikalisch korrekte Texte produziert, ist es schon jetzt ein nützliches und skalierendes Werkzeug für Phishing. Auch eine Sprachausgabe des produzierten Textes erfolgt inzwischen mit nur geringer Verzögerung, was weitere Täuschungsmöglichkeiten eröffnet

Apr. 2023 | In Arbeit | Kommentieren