Der Weltgeist, den Hegel 1806 in Napoleon sah, als dieser nach dem Sieg über die deutschen Truppen durch die Universitätsstadt Jena ritt, lebt zwei Jahrhunderte später in Kalifornien – so sieht es der deutsch-amerikanische Literaturwissenschafter Hans Ulrich Gumbrecht in seinem Buch „Weltgeist im Silicon Valley“. Die geopolitische Verschiebung von Mitteleuropa an die Westküste der USA bedeutet zugleich den Wechsel vom Politischen zum Wissenschaftlichen. Die Zukunft liegt nicht mehr in den Händen der Politik oder gar der „Philosophenkönige“ wie in Platons „Staat“. Sie liegt in den Händen der Wissenschaft wie in Francis Bacons „Nova Atlantis“, genauer: in der Computerwissenschaft.
Es sind nicht Menschen wie Napoleon, der mit Kriegszügen und dem Code civil im Gepäck seine Gegenwart revolutionierte, es sind Menschen wie der Amazon-Chef Jeff Bezos und der Facebook-Gründer Mark Zuckerberg, die Tag für Tag, mit jedem neuen Projekt und jedem neuen Datensatz ein bisschen mehr, die Zukunft bestimmen.
Die Politik ist mit dieser Machtverschiebung durchaus zufrieden. In Zeiten des postpolitischen Konsens, wenn es nur noch um die Verwaltung der etablierten Ordnung geht, erwartet man Fortschritt vor allem von neuen Technologien, auf die dann alles zu setzen ist. Aber inwiefern liegt die Zukunftsgestaltung tatsächlich in den Händen der Wissenschaft und der Startups? Entscheiden Wissenschafter und Entrepreneurs bewusst, und idealerweise nach ausgiebiger Diskussion der Folgen, welche Erfindungen sie machen und fördern wollen? Können sie der Gesellschaft vorschreiben, in welcher Weise wissenschaftliche Erkenntnisse, sei es die Kernspaltung oder die DNA-Entschlüsselung, genutzt werden?
Die Frage der Ethik des Technischen stellt sich heute schon deswegen anders als in der Vergangenheit, weil im Falle der künstlichen Intelligenz (KI) die Gefahr gar nicht mehr nur von einer verantwortungslosen Nutzung der Erfindung ausgeht, sondern von der Erfindung selbst. Es ist möglich, dass diese ihren Schöpfern nicht wie geplant als Sklave dient, sondern sie wie ein Haustier hält, wie der Stanford-Student Sam Ginn in Gumbrechts Buch spekuliert.
Das Ende der Moral
Der Zusammenhang zwischen KI und Ethik ist doppelt zu denken: als Ethik der Menschen im Umgang mit der Technik und als Ethik der Technik im Umgang mit den Menschen. Ersteres zielt auf die Moral derer, die die KI bestellen, programmieren und einsetzen, und enthält Schlagwörter wie Privacy, Fairness, Transparenz, Bias, Surveillance oder Biopolitik. Die Frage nach dem Verhältnis der KI zum Menschen zielt darauf, mit welchen moralischen Grundsätzen man Technik ausstattet, damit sie, sobald der Mensch sie nicht mehr kontrollieren kann, diesen nicht als Haustier, sondern als Partner betrachtet.
Ein zentraler Aspekt in diesem Zusammenhang ist die Willensfreiheit des Menschen, die durch die Technik, die er sich schafft, zweifach infrage gestellt wird: weil sie die Freiheit beschränkt, anders zu können, und weil der Mensch verlernt, zu wollen.
Punkt eins: Wenn ein Algorithmus am Steuer sitzt, kann man nicht mehr gegen die Geschwindigkeitsbegrenzung verstossen. Das freut die Gesetzeshüter mehr als die Gesetzesprüfer. So sah die vom deutschen Verkehrsminister 2016 einberufene Ethikkommission Automatisiertes und Vernetztes Fahren ein Problem gerade darin, dass die Fahrer durch KI an der Missachtung der Verkehrsregeln gehindert werden könnten.
Damit plädiert die Ethikkommission keineswegs für unmoralisches Verhalten, sondern für die Möglichkeit, überhaupt moralisch handeln zu können. Denn das geht nur, wenn der Entschluss dazu vom Menschen kommt und nicht etwa durch kybernetische Feedback-Schleifen durchgesetzt wird. Verhindert die KI die Übertretung der jeweiligen Höchstgeschwindigkeit (die in modernen Autos bisher nur warnend angezeigt wird), dann gibt es nur noch richtiges Verhalten, aber kein gutes mehr. Es ist das Ende der Diskussion (die den Menschen zur Einsicht in die Notwendigkeit führen soll) zugunsten eines Interaktionsdesigns, das ein ultrastabiles Systems garantiert.
Zweitens: Zugleich verlernt der Mensch, von seinem freien Willen Gebrauch zu machen, wenn Algorithmen ihm die Notwendigkeit abnehmen, ihn einzusetzen. Das Zukunftsszenarium dazu entwirft Yuval Noah Harari am Ende seines Buches «Homo Deus» (2016) am Beispiel der Partnerwahl. Warum, so die plausible Frage, sollten wir die Entscheidung, wer am besten zu uns passt, nicht dem Algorithmus überlassen, der uns besser kennt als wir selbst und die Umweltdaten viel effektiver verarbeiten kann als wir? Warum sollten wir vage Intuitionen faktenbasiertem Wissen vorziehen?
«Die Algorithmen werden nicht aufbegehren und uns versklaven», beruhigt Harari: «Vielmehr werden sie Entscheidungen für uns so gut treffen, dass wir verrückt wären, ihrem Rat nicht zu folgen.» Die zentrale Frage ist aber gar nicht, warum wir uns gegen die allwissenden Assistenten unseres Lebens wenden sollten, sondern bis wann wir es noch könnten. Je mehr die Algorithmen uns helfen, umso hilfloser werden wir. Wer sich plötzlich ohne Navi allein nach Karte orientieren muss, spürt das.
Technologie will leben
Die Frage nach der Willensfreiheit muss viel tiefer und früher ansetzen: bei den Erfindern. Wie frei ist der Stanford-Student Sam Ginn, von seinem Vorhaben abzulassen, ein künstliches Bewusstsein zu schaffen, das sein eigenes Dasein in der Welt versteht? Natürlich ist Sam Ginn frei, nicht aber die Sam Ginns dieser Welt. Der Mensch hat nicht die Wahl, nicht zu erfinden. Dies lernt Sam Ginn wiederum bei Martin Heidegger, den er im Seminar seines Lehrers Hans Ulrich Gumbrecht liest.
Heidegger betrachtet Technik als «eine Weise des Entbergens», das zwar nicht jenseits des menschlichen Tuns geschieht, aber eben «auch nicht nur im Menschen und nicht massgeblich durch ihn». «Die ‹Initiative›, sich zu zeigen», so fasst Gumbrecht Heidegger zusammen, «geht vom Sein aus, nicht von der Neugier oder dem Interesse menschlichen Daseins.» Die Annahme einer sich selbst antreibenden Technologie wird popularisiert durch Bücher wie Kevin Kellys «What Technology Wants» (2010), wonach das «Technium» nichts anderes will als jedes andere «living system» auch: am Leben bleiben und sich ausbreiten.
Auch die deutsche Medienwissenschaft tendiert zum Teil dazu, die Macht nicht im Menschen zu sehen, der das Medium so oder so benutzen kann, sondern im Medium, das dem Menschen seine eigenen Dispositive aufdrängt. Friedrich Kittler wurde deswegen als «Hegelianer unter digitalen Vorzeichen» bezeichnet – was uns zurück zum Weltgeist bringt.
In Hegels Geschichtsphilosophie unterwirft der Weltgeist wie ein Maulwurf unter der Erde der Weltgeschichte insgeheim alle Ereignisse mit der «List der Vernunft» den eigenen Zwecken. Die Helden der Geschichte sind für Hegel deswegen nichts anderes als die «Geschäftsführer des Weltgeistes». Was damals für Napoleon galt, gilt auch für die Programmierer, Erfinder und Entrepreneurs in den Silicon Valleys unserer Zeit. Sie mögen sich als Wegbereiter des gesellschaftlichen Fortschritts sehen, sind aber, mit Hegel, Heidegger und Gumbrecht besehen, gar nicht wirklich die treibende Kraft, sondern nur die betreibende: getrieben, das Verborgene zu entbergen, ganz gleich, ob es dem Menschen wirklich nützt, wie er immer hofft und sich selbst einredet.
Eine metaphysische Wendung
Zu absurd? Zu technikdeterministisch? Zumindest erklärt diese Perspektive, warum der Mensch so geschäftig an einer so undurchschaubaren und, wie viele Spezialisten und Spezialistinnen vorhersagen, wahrscheinlich unkontrollierbaren Sache wie der KI bastelt. Das Weltgeist-Modell gibt diesem Drang eine metaphysische Wendung: als Sehnsucht des «absoluten Geistes», sich selbst zu erkennen. Denn Weltgeschichte ist, wie Hegel in seinen «Vorlesungen über die Philosophie» der Geschichte erklärt, am Ende nichts anderes als «die Darstellung des Geistes, wie er sich das Wissen dessen, was er an sich ist, erarbeitet».
Für diese Selbsterkenntnis braucht der Geist den Auszug der Menschen in die Welt, denn er erkennt sich erst in ihrem Erkennen seiner Schöpfung. So wird der Sündenfall zur unabdingbaren Voraussetzung nicht nur der Emanzipation des Menschen, sondern auch der Selbstermächtigung Gottes, der bei Hegel nichts anderes ist als der absolute Geist.
Heisst das, der Mensch muss die künstliche Intelligenz erfinden, damit der absolute Geist zu sich selbst findet? Sind beide gar eins? Harari scheint in diese Richtung zu denken, wenn er schreibt: «Menschen sind lediglich Instrumente, um das ‹Internet der Dinge› zu schaffen» und: «Dieses kosmische Datenverarbeitungssystem wäre dann wie Gott.»
Zugegeben, eine solche Betrachtung weicht ab vom Verständnis der KI als bloss sehr schnelle Algorithmen im Dienste der Menschen und opponiert der Kritik jeglicher KI-Konzepte, in denen der Mensch nicht die Hauptrolle spielt. Aber warum nicht im Hegel-Jahr für einen Moment etwas kühner denken und, wie Slavoj Žižek in seinem Buch «Hegel im verdrahteten Gehirn» (2020), testen, ob sich mit Hegel die Digitalisierung tiefer denken lässt.
Klar, es degradiert den Menschen, wenn er sich am Ende nur als Zwischenwirt der Vernunft herausstellt, ein Zwischenwirt der Vernunft nicht nur für seine Schöpfung, die künstliche Intelligenz, sondern auch für seinen Schöpfer, den absoluten Geist, der als allwissende, allmächtige künstliche Intelligenz im Internet aller Dinge und Ereignisse auf höchster Prozess-Stufe in Echtzeit endlich ganz zu sich selbst kommt. Aber ist es nicht auch beruhigend, sich – als «Geschäftsführer des Weltgeistes» – wieder eingebunden zu sehen, in eine Geschichte, die weiss, wo sie hinwill?
Der Kultur- und Medienwissenschafter Roberto Simanowski ist Distinguished Fellow of Global Literary Studies am Excellence-Cluster «Temporal Communities» der Freien Universität Berlin.
„Todesalgorithmus. Das Dilemma der künstlichen Intelligenz“
Passagen-Verlag 2020
Es wurde mit dem Tractatus-Preis für philosophische Essayistik ausgezeichnet.