Eigentlich sollte ein Pilot das Flugzeug führen. Eigentlich. Doch die Piloten eines Fluges der Boeing 737 MAX wussten nicht, wie ihnen geschah, als ihre Maschine sich wie von Geisterhand bewegte und sich die Nase ihrer Maschine zu Boden neigte – gleichgültigl, wie sehr die beiden im Cockpit an den Steuersäulen zerrten und welche Schalter sie umlegten, um die Kontrolle über das hinabrasende Flugzeug zurückzuerlangen. Mit einer Geschwindigkeit von 800 km/h donnerte die todgeweihte Boeing der Erde entgegen und zerbarst beim Aufprall, kurz nach dem Start in Addis Abeba. Niemand an Bord der Passagiermaschine überlebte. Genauso wie schon fünf Monate zuvor, als eine Boeing desselben Typs nicht mehr auf die Aktionen der Crew reagierte und sich vor Indonesien ins Meer stürzte, als hätte sie einen eigenen Willen. Auch dort überlebte niemand.
Ein automatisches System zur Flugstabilisierung, dessen Existenz in den Bordhandbüchern noch nicht einmal Erwähnung fand, kam mit fehlerhaften Messwerten eines Sensors nicht zurecht. Die Automatik zwang die Maschine gnadenlos nach unten. Die hilflosen Piloten wurden vom System übersteuert. Sie und ihre Passagiere hatten keine Chance. Wie entnervend es sein kann, wenn Hardware und Software sich stur stellen, weiß jeder, der seinen zickenden Computer oder sein hakelndes Handy schon mal vor Wut am liebsten aus dem Fenster geworfen hätte. In schlimmen Fällen schicken versagende Algorithmen uns jedoch ins Inferno. Zum Glück hat der Flugzeugbauer Boeing die Sache behoben und daraus gelernt, könnte man an dieser Stelle seufzen. Vergangen, erledigt, weiter im Text.
Stattdessen nimmt die Debatte, welche Gefahren von fehlgeleiteter Software ausgehen, rasant Fahrt auf. Die Risiken Künstlicher Intelligenz beschäftigen diese Woche das Europäische Parlament. Es hat gestern ein Gesetz zur Regulierung von KI beschlossen – das strengste weltweit, wie mein Kollege David Schafbuch berichtet. Doch die Mühlen der EU mahlen langsam: Bis das Gesetz tatsächlich Wirkung entfaltet, werden noch Jahre vergehen. Um die Lücke zu füllen, drängt die für Technologie zuständige EU-Kommissarin Margrethe Vestager auf eine sofortige Selbstverpflichtung der Industrie, damit die mächtigen Algorithmen uns bis dahin nicht entgleiten.
Nicht nur in der EU spürt man dringenden Handlungsbedarf.
Auch bei den Vereinten Nationen in New York schrillt der Alarm: Am Montag warnte Generalsekretär António Guterres vor den Gefahren der KI und forderte die Staaten der Welt auf, eine globale Regulierungsbehördeaufzubauen. Führende Köpfe aus der Forschung zur Künstlichen Intelligenz, aber auch die Chefs der wichtigsten Unternehmen in diesem Bereich fordern eine Debatte über das enorme Risiko, das von der neuen Technologie ausgeht. Sie verlangen, der existenziellen Gefährdung der Menschheit entgegenzutreten. Ja, der existenziellen Gefährdung: Davor warnen selbst zwei der drei wichtigsten Pioniere in diesem Forschungsfeld. Der dritte sagt: Alles nur Hysterie.
Auf die Frage, wer von den dreien recht hat, werden wir keine verbindliche Antwort finden. Kein anderer Technologiebereich entwickelt sich in einem vergleichbar atemberaubenden Tempo, was die Vorhersagbarkeit arg beschränkt. Selbst die Entwickler Künstlicher Intelligenz tun sich schwer damit zu begreifen, was im Inneren der lernenden neuronalen Netze vor sich geht, aus denen KI-Programme bestehen. Sie sind selbst baff über die Leistungsfähigkeit ihrer Schöpfung.
Nichts Genaues weiß man nicht
Dem Thema annzuähern sei dennoch versucht, eben darum erinnern wir an die Abstürze der Boeing 737 MAX: Schlimm war das, aber KI war dabei nicht im Spiel. Am Werk war die ganz gewöhnliche computerbasierte Automatisierung, wie wir sie schon lange kennen. Mit deren Gefahren hat die Menschheit immer wieder Bekanntschaft machen müssen, aber im Großen und Ganzen kommen wir mit ihren Risiken zurecht. Warum jetzt also so dramatisch? Was ist neu am Risiko KI?
Ein Versuch es zu erklären.
Bisher taten Computer das, was Programmierer ihnen befahlen: Die Nerds hacken Anweisungenin ihre Tastaturen, die dann meistens mehr oder weniger machen, was sie sollen. Die Logik des Programms, der Algorithmus, ist dabei in Stein gemeißelt. Wenn Unerwartetes geschieht, dann nur deshalb, weil aufwendige Programme sehr komplex geraten und der Mensch über das Ergebnis seines Schaffens manchmal den Überblick verliert. Computer halten sich jedenfalls sklavisch an die Befehle und hauen dem Schöpfer ihrer Software jede Schlamperei gnadenlos um die Ohren. Sie und ich schreiben in solchen Fällen eine säuerliche Mail an den Support oder rufen genervt die Hotline an. Aber unsere Spezies, insbesondere die programmierende Art, hat das Heft immer in der Hand
Bei der Künstlichen Intelligenz ist alles abders
. KI wird zunächst mit Daten trainiert. Die Software kann sich in diesem Prozess des maschinellen Lernens selbst so anpassen, dass sie am Ende des Trainings ein brauchbares Ergebnis ausspuckt. Man kann sich eine lernende KI als Maschine vorstellen, die über eine enorme Anzahl von Stellschrauben verfügt. Diese Stellschrauben ruckeln sich im Verlauf des Trainingsbetriebs von selbst zurecht, justieren sich hier, verstellen sich dort. Am Ende verhält sich die Maschine wie gewünscht. Sie erkennt in allen Katzenbildchen, mit denen wir sie während des Trainings gefüttert haben, zuverlässig die Katze. Der Clou ist jedoch: Sie entdeckt die Katze anschließend auch in Katzenbildchen, die sie zuvor noch nie gesehen hat. Die trainierte KI verwendet das abstrakte Konzept „Katze“ bei der Beurteilung von Fotos. Sie hat gelernt.
Das ist nicht länger das Werk der Programmierer.
Die haben die lernfähige Struktur geschaffen, aber von da an verändert sich das Programm von selbst. Die Software absorbiert die „Erfahrungen“, die sie sammelt, und passt sich an – erst durch Training, später durch ergänzendes Feedback. Man kann lange darüber diskutieren, ab wann man für diese Lernfähigkeit den Begriff der Intelligenz verwenden darf. Noch viel länger kann man sich am Begriff „Bewusstsein“ abarbeiten, das eine KI niemals oder doch oder vielleicht irgendwann einmal entwickelt. Ich möchte Ihr Augenmerk deshalb lieber auf den anderen Teil des technologischen Terminus‘ lenken: Die Intelligenz oder wie auch immer wir das nennen ist vor allem „künstlich“.
Eine Konstruktion aus Zahlen und mathematischen Funktionen l
äuft nicht der menschlichen Intelligenz hinterher.
Es hat keine Hoffnungen und Wünsche, sondern löst ein Optimierungsproblem. Eine KI tickt anders als wir, und vor allem tickt sie sehr schnell. Sie kann bald Millionen Mal mehr als wir. Mehrere Künstliche Intelligenzen desselben Typs können unterschiedliche Lernerfahrungen machen und – anders als Menschen – das Gelernte blitzschnell untereinander austauschen. Mal eben rüberkopieren sozusagen. Dann können sie Abermilliarden Mal mehr als wir. Unsereins hockt jahrelang in der Schule, büffelt weitere Jahre an der Uni, arbeitet sich durch ein Buch nach dem anderen, gibt das Gelernte später per Wort und Schrift in unsäglich langsamer Übertragungsrate an andere weiter – und jedes neue Baby fängt mit der Prozedur wieder von vorn an. Die lernenden Maschinen dagegen können ihr Wissen direkt vererben. Ja, sie sind anders als wir, aber immens leistungsfähig.
Überholen ohne einzuholen:
So könnte man die zunehmenden Fähigkeiten der KI umreißen.
Das ist die existenzielle Gefahr, vor der die Experten uns warnen. Sie verlangen, dass wir jetzt aufpassen. Damit wir am Ende nicht die Dummen sind, wenn wir das Heft des Handelns und die Kontrolle über die Maschinen plötzlich nicht mehr in der Hand haben. Zum Beispiel über Flugzeuge, Drohnen oder gar Atomraketen.