Die menschliche Welt ist ohne Algorithmen nicht mehr zu denken. Zugleich aber überhöht der Mensch mit dem Mythos „künstliche Welt“  seine eigenen Erfindungen – und verzweifelt beinhe darüber. Die Digitalisierung erobert die Welt – und das beruht zwar zum einen auf ihren unbestritten erstaunlichen Leistungen – zum anderen aber auch auf ihren Weggefährten: den sie machtvoll begleitenden Mythen.

Und dies sind tiefsitzende, im Sinne von C. G. Jung archetypische Erzählungen, mit denen wir Menschen uns dem „Absolutismus der Wirklichkeit“ (Blumenberg) dadurch zu entziehen versuchen, dass wir ihm einen tieferen Sinn geben.

Mythos 1: künstliche Intelligenz

Ich denke. Also bin ich!

Ein prominentes Beispiel dafür ist der Mythos der denkenden Maschine. Vor dem Hintergrund der antiken Utopie automatisierter Arbeit (Aristoteles) und der neuzeitlichen Konzeption des Menschen als einer Maschine (La Mettrie) wird im Kontext der Entwicklung der ersten Computer im 20. Jahrhundert die Vorstellung von Denkmaschinen aufgegriffen, in der Formulierung von Pamela McCorduck: «Machines Who Think».

Und der legendäre Alan Turing scheint schon 1950 im Titel seines epochemachenden Aufsatzes «Computing Machinery and Intelligence» die Verbindung zu einem weiteren heute dominierenden Mythos herzustellen: dem der künstlichen Intelligenz (KI). Allerdings avant la lettre. Die Bezeichnung «künstliche Intelligenz» («artificial intelligence») taucht nämlich erst 1955 auf: Eine Gruppe junger Wilder um den noch nicht ganz 28-jährigen John McCarthy, damals Assistenzprofessor für Mathematik, verwendet ihn prominent in ihrem Antrag auf Förderung einer Konferenz, die dann, von der Rockefeller Foundation finanziert, im Sommer 1956 am Dartmouth College stattfand. Ein häufig vernachlässigter Aspekt im Gründungsmythos der KI ist jedoch, dass McCarthy diesen Begriff bewusst wählte, um die Bezeichnungen «Automatentheorie» und «Kybernetik» zu vermeiden und so die Koryphäe Norbert Wiener nicht einladen zu müssen.

Dass die aus dieser «Dartmouth-Verschwörung» entstandene Namengebung derart erfolgreich war, lag sicher zum einen daran, dass die jungen Wilden die Mehrdeutigkeit des Begriffs «Intelligenz» nicht nur in Kauf nahmen, sondern geradezu zu einem Markenzeichen machten. «Artificial intelligence» bedeutet nämlich im Englischen auch etwas so Unspektakuläres wie «technische Informationsverarbeitung», und allein daraus hätte kein Mythos entstehen können. Zum anderen aber überlebte der Digitalisierungsmythos der denkenden Maschine und der künstlichen Intelligenz die zwei als «KI-Winter» bekannt gewordenen herben Rückschläge nicht zuletzt deswegen, weil sich zu Beginn unseres Jahrhunderts zwei stützende Mythen um sie herum zu ranken anfingen.

Mythos 2: „digital natives“

Da wäre zunächst die Erzählung der Digitalisierungsgeschichte mithilfe der ethnografischen Begrifflichkeit von «Eingeborenen» und «Einwanderern».

Seit der Pädagoge und Manager Marc Prensky in zwei einschlägigen Artikeln 2001 das Begriffspaar «digital natives» und «digital immigrants» geprägt hat, ist es aus der Debatte um die Digitalisierung nicht mehr wegzudenken. Seine mythenbildende Kraft bezieht dieses Begriffspaar aus dem assoziativ mitgedachten Pioniermythos der amerikanischen Siedler.

Bemerkenswert ist dabei die – vermutlich nicht bewusst erfolgende – Vertauschung der Bedeutungen: In der historischen Vorlage sind die Siedler («immigrants») die Pioniere, die die neue Zeit verkörpern. Diese Verwendung des «Go West»-Mythos dominiert auch seine früheren Adaptationen, etwa in Howard Rheingolds einflussreicher Beschreibung der Entstehung des zivilen Internets unter dem Titel «Virtual Community. Homesteading on the Electronic Frontier». In der Prensky-Variante dagegen sind die «natives» die Pioniere, also diejenigen, die mit den digitalen Medien aufgewachsen oder, wie John Palfrey und Urs Gasser es 2008 pointiert formuliert haben, «digital geboren» sind. Zu dieser Generation sollen diejenigen gehören, die 1980 und später zur Welt kamen, die «Generation Internet», auch – etwas irreführend – die «millennials» genannt.

Hier geht es nicht darum, ob das eine sinnvolle Unterscheidung ist. Es interessiert einzig, wie der in (oder hinter) einem solchen Begriffspaar gleichsam kondensierte narrative Gehalt ihm eine zusätzliche Bedeutung und Tiefe verleiht. Und wie er ihn – im vorliegenden Fall durch die Kopplung mit einem machtvollen Mythos aus einem anderen Bereich, eben demjenigen der Pioniere – noch mit zusätzlicher Bedeutsamkeit auflädt.

Mythos 3: Singularität

Ein mächtiger Verbündeter erwächst der Digitalisierung (und insbesondere dem Mythos der künstlichen Intelligenz) aus der Koppelung mit dem Singularitätsmythos. Im Hintergrund steht dabei erneut die Idee der Ersetzung des Menschen durch sogenannt «intelligente» Leistungen von Maschinen.

Wird dieses seit der Antike (Bild: Orakel von Delphi) immer wiederkehrende Narrativ mit zeitlichen Voraussagen kombiniert, ergibt sich jene merkwürdige Mischung, die man als «Prognose in Permanenz» bezeichnen kann und die sich auch durch das Nichteintreten des von ihr Prognostizierten nicht widerlegen lässt. Weniger akademisch formuliert: Wir alle kennen – aus Vor-Corona-Zeiten – die kleinen Zettel an Bürotüren, auf denen «Bin gleich zurück» stand. Da das «gleich» keinen zeitlichen Index, beispielsweise eine Uhrzeit, enthält, sind diese Zettel immer wieder verwendbar. Diese Prognose in Permanenz drückt zudem häufig ein Leistungsversprechen aus, beispielsweise: In x (in der Regel 5) Jahren werden wir y erreicht haben.

Auf unseren Fall angewendet: In x Jahren werden alle menschlichen (Intelligenz-)Leistungen von Maschinen nicht nur erreicht, sondern übertroffen werden. Und dieser Zeitpunkt wird seit 1993, als Vernor Vinge dieses Leistungsversprechen («greater than human intelligence») am Vision-21-Symposium populär machte, als «singularity» bezeichnet. Die Argumentation bedient sich dabei einer rekursiven Variante des sogenannte Mooreschen Gesetzes: Schon an der Entwicklung der IT lässt sich die für exponentielles Wachstum verantwortliche Verdopplungsdynamik ablesen; je mehr künstliche Intelligenz aber ihrerseits in die Entwicklung eingreift, desto stärker wird diese sich zusätzlich beschleunigen.

Mythos 4: Endzeit

Nun würde es sich hierbei nicht um einen dermassen erfolgreichen Mythos handeln, wenn sich in seiner Formulierung über den erhobenen Befund hinaus nicht ein Anklang an eine andere archetypisch besetzte Seite unseres Bewusstseins fände. Das lässt sich besonders schlagend an einem Buchtitel zeigen: Der derzeitige Guru der Singularitätsbewegung, Raymond Kurzweil, seines Zeichens Autor, Erfinder, Computerwissenschafter, Zukunftsforscher und Director of Engineering bei Google, betitelte 2005 sein einschlägiges Buch, das inzwischen Klassikerstatus erreicht hat, mit «The Singularity is Near».

Der damit assoziierte Mythos ist der einer nahenden Endzeit, und zwar nicht irgendwann, sondern präzise im Jahr 2045! Noch weiter vorgewagt hatte sich übrigens bereits Vernor Vinge, als er 1993 in dem erwähnten Essay den Zeitraum von 2005 bis 2030 nannte – also jetzt!

Eschatologie ist der Diskurs am Ende der Zeit. Es gehört zur Theologie und Philosophie im Zusammenhang mit den letzten Zeiten, den letzten Ereignissen in der Geschichte der Welt oder dem ultimativen Schicksal der Menschen, die gemeinhin als das „Ende der Welt“ bezeichnet wird. In vielen Religionen ist dies ein zukünftiges Ereignis, das in heiligen Texten oder Folklore prophezeit wird.

Für unseren Zusammenhang ist indessen nicht primär das prognostizierte Datum, sondern insbesondere die mythenbildende Assoziation zu dem archetypischen Narrativ von Bedeutung, das in der christlichen Religion unter dem Begriff «eschatologische Naherwartung» bekannt ist: Was die frühchristliche Gemeinde zusammenhielt, war nicht zuletzt die Vorstellung der Wiederkunft (Parusie) von Jesus Christus am Jüngsten Tag und der Errichtung eines Gottesreiches auf Erden (Chiliasmus). Darüber, wann sich diese «letzten Dinge» (griech. «eschata») ereignen würden, herrschte Uneinigkeit: Auf der einen Seite existierte die Überzeugung, dass das Ende nahe sei und es noch zu Lebzeiten der Jünger dazu kommen werde (Naherwartung), auf der anderen Seite verfestigte sich die Überzeugung einer «Parusieverzögerung».
Nur nebenbei: Die frühchristliche Gemeinde brachte sich durch dieses Narrativ der Naherwartung an den Rand der Selbstvernichtung. Der Teil der Gemeinde, der an die unmittelbar bevorstehende Wiederkunft und die dann erfolgende Errichtung des Gottesreiches auf Erden glaubte, verlegte sich – analog zur Lukas-Version der Geschichte von Maria und Martha (Lk 10, 38–42) – aufgrund dieser eschatologischen Naherwartung darauf, zu beten, statt für den Lebensunterhalt zu arbeiten. Die Gemeindeältesten (Presbyter), welche die darin lauernde Gefahr erkannten, lösten das Problem durch die Entwicklung des theologischen Konzepts der Gottwohlgefälligkeit der Arbeit, das die christliche Arbeitsethik bis heute prägt.

Bis zur Wortwahl («The Singularity is Near» – «Das Reich Gottes naht») bedient sich der Singularitätsmythos dieses archetypischen Musters. Er bezieht also seine Kraft aus der endzeitspezifischen Formulierung, die die Assoziation der frühchristlichen Parusie-Erwartung auslöst.

Das Ende ist nah, aber es schreitet mit der Verheissung einher, dass anschliessend ein Zustand erreicht wird, der eine unerhörte, zuvor nie da gewesene Welt eröffnet. Um diesen Zustand auch nur gedanklich zu skizzieren, bedarf es jedoch eines veritablen «sacrificium intellectus», anders: Es bedarf des Denkens des Undenkbaren. Konkret gilt es, sich eine Situation vorzustellen, die per definitionem unvorstellbar ist: Singularität ist ja dadurch definiert, dass die erreichte Super- oder Hyperintelligenz alle menschlichen Intelligenzleistungen nicht nur erreicht, sondern überbietet.

Kurz und prägnant zusammengefasst: Wäre einmal der Zustand erreicht, dass die geschaffene («künstliche») Intelligenz alle menschlichen Intelligenzleistungen überstiege, gäbe es für diese auch keine Möglichkeit mehr, die dadurch eröffneten Zukunftsoptionen vorherzusagen. Darüber hinaus könnten wir es nicht einmal bemerken, wenn dieser Zustand erreicht wäre.

So betrachtet, könnte es durchaus sein, dass er schon lange eingetreten ist. Und das ist beruhigend. Wenn es nämlich keinen für uns wahrnehmbaren Unterschied macht, ob dieser Zustand erreicht ist oder nicht, spielt es für uns auch keine Rolle.

Damit aber verliert der Mythos seine treibende Kraft. Entweder wird er zu einer historischen Episode, ebenso wie es im Falle des Mythos der denkenden Maschine heute niemandem in den Sinn käme, ernsthaft zu meinen, ein iPhone könne denken und wir müssten ihm Intelligenz zuschreiben. Oder aber es wird uns aus anderen tiefen Bewusstseinsschichten ein neuer Mythos erwachsen, denn ebenso wie nach Bruno Bettelheim Kinder Märchen brauchen, benötigt jede technologische Entwicklung ihre Mythen.

Der Schweizer Philosoph Walther Ch. Zimmerli, Honorarprofessor an der Humboldt-Universität zu Berlin, befasst sich mit der philosophischen Erfassung der Digitalisierung. Zurzeit ist er Research Fellow an der Digital Society Initiative (DSI) der Universität Zürich. Beim obenstehenden Text handelt es sich um die überarbeitete und gekürzte Fassung eines Vortrags vor der Österreichisch-Schweizerischen Kulturgesellschaft Zürich.

Jan. 2021 | Allgemein, Essay, Junge Rundschau, Sapere aude, Wissenschaft, Zeitgeschehen, Wo aber Gefahr ist, wächst / Das Rettende auch | Kommentieren