FRAGEE: Ihr Unternehmen HASE & IGEL hat im Sommer 2023 eine Studie zum Umgang mit KI-Nutzern veröffentlicht. Grob zusammengefasst: KI wird viel verwendet, aber kaum verstanden …
Jan Schoenmakers: Wir haben bis ins Jahr 2019 zurück analysiert, wie sich Deutsche, Österreicher und Schweizer zu KI informieren. Was googeln sie dazu? Was lesen sie dazu in Medien? Worauf reagieren sie? Was schreiben sie in sozialen Medien, in Foren? Was sind die Themen bei Vorträgen? Wir schauen uns das gesamte Informationsverhalten über sämtliche Kanäle hinweg an und ermitteln semantische Muster: Was für Themen kommen vor? Wie wird sich über KI informiert? Wie wird sich darüber ausgetauscht? Mit unserer KI haben wir ausgewertet, wie sich diese Muster über die Jahre verändern.
Liegt es nicht in der Natur der Sache, dass sich Konsumentinnen und Konsumenten kaum mit den technischen Details ihrer Gerätschaften befassen? Ich könnte Ihnen jetzt auch nicht erklären, wie mein Induktionsherd oder eine U-Bahn funktioniert, obwohl ich diese Dinge täglich benutze …
Was wir bei KI beobachten, unterscheidet sich von anderen Technologien. Je mehr KI-Anwendungen genutzt werden, desto weniger wollen die Leute verstehen, wie sie funktionieren. Das ist sehr unüblich. Dass wir als Anwender oft nicht verstehen, wie unsere Technik funktioniert, ist normal: Kaum einer kann sein Auto selbst reparieren, kaum einer kann beim Smartphone den Akku oder das Display tauschen. Aber was man bei einer neuen Technologie in der Regel sieht, ist, dass sich die Leute damit so beschäftigen, dass sie eine grobe Idee haben, wie es funktioniert, und dass sie sich mit Begeisterung Fachvokabular aneignen. Das haben wir bei jeder großen technologischen Welle gesehen – eben auch bei den Smartphones, wo Leute begannen, sich darüber auszutauschen, ob dieser oder jener Prozessor verbaut ist, welches Betriebssystem besser ist und was die besten Tricks sind, damit der Akku länger hält.
Und bei KI?
Warum ist das so?
Einerseits ist das ein Mangel an Grundlagenbildung. Die meisten Menschen in Deutschland haben in der Schule kaum IT-Kompetenzen vermittelt bekommen. Und je weniger ich anfänglich zu etwas weiß, desto größer ist die Hürde, mich damit zu beschäftigen.
Jedes Schulkind kann doch mittlerweile mit ChatGPT hantieren …
»Wenn es darum geht, wie wir als Unternehmen und Gesellschaft KI einsetzen, braucht es mehr Kompetenz, als nur konsumieren zu können«
Und andererseits?
Anderseits liegt das Problem auch in der Mischung aus Einfachheit und Intransparenz solcher Lösungen. Ob Google-Services oder ChatGPT: Was aus den USA an Anwendungen kommt, ist oft so intuitiv, dass man sich schnell einbildet, Experte zu sein, obwohl man letztlich nur Anwender ist. Da all diese Programme aber »Black Boxes« sind, die mir also niemals offenlegen, wie sie funktionieren und auf welcher Datenbasis mit welchen Annahmen sie mir eine Antwort geben, wird sich das auch nie ändern: Ich bleibe abhängig vom Anbieter und muss ihm letztlich blind vertrauen. Weil die Dienste sehr günstig oder gar kostenlos sind, denken viele, das sei leicht zu verschmerzen – doch steigt das versteckte Risiko: Der Anbieter kann mir jederzeit die Preise erhöhen, und ich habe keine Alternative. Wenn ich mich für das Ergebnis rechtfertigen muss vor einem Aufsichtsrat, dem Kunden oder gar einem Gericht, kann ich dann immer nur sagen: »Ich weiß auch nicht, das hat mir eben der Computer empfohlen.«
Inwiefern trägt hier auch die Politik eine Mitverantwortung?
Bei dieser Diskussion ist das Abstraktionsniveau in der Politik sehr hoch. KI ist wahlweise der Teufel, den man an die Wand malt, oder ein Deus ex Machina, der alle Probleme lösen soll, von Ineffizienzen im Markt über Klimawandel bis hin zum demografischen Wandel. Das sind naive Heils- und Untergangsszenarien. Eine tiefer gehende Diskussion sucht man in der deutschen Politik vergebens. Das merkt man daran, dass in der Politik immer über die KI gesprochen wird, selbst auf EU-Ebene – als ob es nur die eine gäbe. Es gibt unterschiedliche Arten von künstlicher Intelligenz. Eine generative KI hat nichts mit einer analytischen KI zu tun, die so ziemlich das Gegenteil macht. Solange Politiker die Möglichkeiten von KI nicht realistisch einschätzen und Probleme, die man damit lösen will, nicht klar benennen, ist es unwahrscheinlich, dass Politik die Rahmenbedingungen schafft, um KI sicher, effizient und nutzbringend einzusetzen.
Künstliche Intelligenzen – im Plural – werfen große gesellschaftliche, auch ethische Fragen auf. Wäre es da nicht ratsam, ein wenig bedachter, ein wenig langsamer an das Thema heranzugehen?
Nehmen wir das analytische KI-System, das wir entwickelt haben: Es erhebt und analysiert Daten, zeigt ein Bild der Welt, gibt Prognosen und Empfehlungen. Dabei kann man anzeigen lassen, welche Daten die KI dafür heranzieht und auf Basis welcher Modelle und Berechnungen sie etwas empfiehlt. Dafür muss man Algorithmen beibringen, alle Schritte zu protokollieren und nachvollziehbar zu halten. Das macht Arbeit und braucht mehr Daten, geht aber definitiv. Bei generativer KI, die zum Beispiel Texte oder Bilder anfertigt, ist das schwieriger und noch datenintensiver, aber nicht unmöglich. Für einen guten Werbetext muss eine KI jedoch nicht zwangsläufig rechenschaftspflichtig sein – ob er stimmt, kann ich ja als Unternehmen schnell beurteilen. Für eine Analyse, die mir Wahrheit vermitteln soll – zum Beispiel zum Marktpotenzial für ein Produkt oder zu gesetzlichen Rahmenbedingungen –, würde ich allerdings keine KI einsetzen wollen, die nicht ihr Blatt aufdecken kann.
»Verantwortung muss beim Menschen bleiben«
Besteht dann die Chance, dass Menschen KI-Anwendungen nicht nur benutzen, sondern auch vermehrt verstehen wollen?