Immer mal wieder ist vom „Systemrisiko“ die Rede: Banken müssen gerettet werden, wenn sie „systemrelevant“ sind. Aber was ist eigentlich dieses System? Gibt es da etwas großes Ganzes, das die Finanzmärkte steuert und zusammenhält, das in seiner Komplexität gezähmt und abgesichert werden muss, weil es keiner wirklich versteht? Oder ist „das System“ nicht schlicht ein – zugegeben kompliziertes – Zusammenspiel vieler Entscheidungen? – Genau so ist es.
Das System ist das Ergebnis aller Entscheidungen, die Menschen in einem bestimmten Anwendungsfeld, hier: die Finanzmärkte, treffen. Sie waren – mal wieder – fehlerhaft, inkompetent, inkonsequent und manchmal schlicht anmaßend. Das „Systemrisiko“ ist ein menschliches, hervorgegangen aus vielen menschlichen Fehlentscheidungen. Da waren der strategische Fokus auf Staatsanleihen bei der Silicon Valley Bank, die Lockerung von Dodd-Frank, während der Regierungszeit Donald Trumps, die Fehleinschätzung der mit Zinsanhebungen verbundenen Risiken, die Cashballung der Start-ups bei einer Bank.
Die Fehler haben viele Marktteilnehmer dann auch schnell benannt: Schande dem Silicon Valley, das uns wieder Probleme an den Finanzmärkten beschert. Und dann kam die Credit Suisse. Angeblich eine Folge der weltweit ausgelösten Verunsicherung. Das ist nur leider zu kurz gesprungen. Seit Jahren hat die Bank einen Skandal nach dem anderen produziert, immer als Folge menschlicher Fehler. Das zuletzt im Turbotempo wechselnde Management hat viel zu lange tatenlos zugesehen, als die Bank tiefer und tiefer in die Problemzone rutschte. Die schweizerische Bankenaufsicht Finma hat gewarnt, und die Warnungen verpufften folgenlos.
In beiden Fällen ist es wieder dieselbe Kombi: schiere Inkompetenz im Management, mangelnde Aufsicht, schlechtes Risikomanagement. Hinter dem „Systemrisiko“ versteckt sich ein Irrtumssystem auf Steroiden, menschliches Mittelmaß, skaliert und beschleunigt durch Technologie und die sozialen Medien. Wenn zwischen Fehler und Folge früher durchaus einige Zeit vergehen konnte, leben wir inzwischen in der Just-in-time-Schadenszeit, in der jeder Fehler unmittelbar Konsequenzen haben kann.
Wann immer wir über Technologie und Daten sprechen, zum Beispiel hinsichtlich der faszinierenden KI-Systeme wie ChatGPT, heißt das Motto: garbage in, garbage out. Wo Mist reingeht, kommt auch Mist raus. Das gilt aber nicht nur für Technologie, es gilt auch für das, was der Mensch tut. Wir produzieren so viel Entscheidungsmüll, dass er „systemrelevant“ ist.
Der Mensch ist fehlbar. Und manchmal macht ihn das sogar sympathisch. Aber die Perspektive darauf verschiebt sich gerade gewaltig, denn KI läuft uns nun den Rang in manchem ab, was wir bislang als menschlich einzigartig betrachtet haben. Vieles an den Finanzmärkten ist durch mathematische Logik getrieben. In der ist KI längst um Welten besser als der Mensch.
Und der weniger rationale, emotionale Teil, der über einen Bankrun dann als Sargnagel dient für Banken, wie die SVB und die Credit Suisse? Der ist dafür verantwortlich, dass eine eigentlich lebensfähige Bank, wie die SVB, plötzlich zum Tode verurteilt ist. Oder wie Richard Berner, ehemaliger Berater des US-Finanzministeriums kürzlich gesagt hat: „Silicon Valley Bank war nicht systemrelevant im Leben, aber sie war systemrelevant im Tod.“
„KI würde sich über die logische Inkonsistenz der Menschen totlachen“
Das „Systemrisiko“ unserer Welt ist nicht ein einzelnes Unternehmen oder eine neue Technologie, es ist der Mensch. Wir sind nicht die Krone der Schöpfung, sondern nur mehr die Schaumkrone auf dem von KI interpretierten Datenstrom. Wir Menschen verstehen viele Technologiesysteme nicht, aber das System Mensch verstehen wir auch nicht. Der Konflikt, der bei den aktuellen Verwerfungen wieder in den Blick rückt, ist die Kluft zwischen intelligenter Automatisierung und menschlicher Dummheit – und Dreistigkeit.
Meghan O’Gieblyn, Autorin des Buchs „God, human, animal, machine“ (2021), beobachtet, wie KI bei einem nach dem anderen Benchmark kognitiver Leistungsfähigkeit an uns Menschen vorbeizieht. Derweil zähmen wir unsere Existenzangst durch die fortwährende Beteuerung unseres einzigartigen Bewusstseins, das Gefühle, Sinneserfahrung und Wahrnehmungsfähigkeit voraussetzt – alles Merkmale, die wir Menschen mit Tieren gemeinsam haben.
Hat schon mal wer bemerkt, dass diese Notlogik plötzlich Jahrhunderte menschlichen Selbstbewusstseins auf den Kopf stellt? Denn bislang war es doch immer unsere Intelligenz, die uns so einzigartig gemacht hat. Jetzt sollen solche Qualitäten unsere Existenz retten, die uns den Tieren ähnlich machen und die KI bislang nicht hat.
„Wäre KI ein Gott“, so schreibt O‘Gieblyn, „sie würde sich über die logische Inkonsistenz der Menschen totlachen.“ Im Leben mag diese Inkonsistenz für uns Menschen nicht systemrelevant gewesen sein, hernach, im Tod, da könnte sie es werden.