Vorn noch ne Krawatte, schon bin ich ziemlich echt! Von wegen Sünde

Wenn Siri Unsinn antwortet oder Facebook schwachsinnig übersetzt, dann erhebt sich der Mensch selbstzufrieden über die dumme Technik. Zugleich leisten sich so ziemlich alle großen Digitalkonzerne eigene Institute, in denen sie über jene Zukunft nachdenken lassen, in der die Künstliche Intelligenz (KI) die Macht über den Planeten wird ergriffen haben. Ein Paradox, das vor 60 Jahren schon den KI-Pionier Marvin Minsky verwunderte: Wir trauen den Computern wenig zu – und doch alles.

Und jetzt lassen wir mal Rodney Brooks ins „Spiel“ kommen. Der Australier hat Robotik-Geschichte geschrieben: Als Schrauber, Unternehmer und Theoretiker. Ihm verdankt die Menschheit Roboter auf dem Mars und in Fukushima, in zig Millionen Haushalten, in Labors und Fabriken. Vor drei Jahrzehnten nämlich löste Brooks eine Revolution in der Robotik aus, indem er zeigte, wie komplexes Verhalten Schicht für Schicht aus simplen Grundregeln aufgebaut werden kann.
Neuerlich knöpfte er sich – diesmal auf seinem Blog Robots, AI, and other stuff (grob übersetzt: „Roboter, KI und anderes Zeug“) – die Apokalyptiker vor.

Künstliche Intelligenz …

… Kunst vs Künstliche Intelligenz ?

Algorithmen, intelligente Software und Roboter können mittlerweile immer mehr Dinge, zu denen – wovon noch vor Kurzem, was Wunder, so mancher Mensch absolut gar nix wisssen wollt – allein der Mensch fähig wäre.
Sie verarbeiten nicht nur rasant wachsende Datenmengen, sondern lesen Texte, verstehen Sprache, erkennen Gesichter und analysieren in Echtzeit ihre Umgebung – etwa um selbstständig Auto zu fahren. Was bedeutet diese rasante Entwicklung der künstlichen Intelligenz (KI) für unser Leben, unsere Arbeitswelt und unser Menschsein? „Wir befinden uns in einer KI-Blase“, schreibt Brooks. „Und ich glaube, wenn sie nicht platzt, dann wird sie mit Sicherheit bald in sich zusammenfallen.

 

(…) Das meiste von dem, was wir über KI in den Zeitungen oder von irregeführten wohlmeinenden Akademikern lesen, einschließlich Physikern und Kosmologen, ist, wie ich glaube, vollkommen daneben“ –
eine Breitseite gegen Hawking.

„Ich bin sicher“, legt Brooks nach, „dass kein KI-System und kein Roboter auch nur eine rudimentäre Form von Bewusstsein besitzt oder auch nur irgendeine subjektive Erfahrung oder gar irgendein Selbstgefühl. Ein Grund dafür ist, dass kaum jemand an diesem Problem arbeitet. Es gibt kein Geld für die Konstruktion von Robotern mit Bewusstsein oder auch nur von KI mit Bewusstsein. Aus zwei Gründen. Erstens hat niemand ein solides Argument dafür hervorgebracht, dass Bewusstsein die Performance von Robotern verbessern würde, und zweitens hat niemand irgendeine Idee, wie man dorthin gelangen sollte.“ Wumms.

Auf dem ja wirklich richtigen Weg befinden sich womöglich all jene Wissenschaftler, die mit dem rasanten Aufstieg des maschinellen Lernens den derzeit profitabelsten Zweigs der KI. Maschinelles Lernen der Leistung von Computerprogrammen wegen ins Gespräch bringen, deren Strukturen nämlich bestimmten Aspekten natürlicher Gehirne nachempfunden sind (künstliche neuronale Netze, KNN). Und, derartige Software lässt sich trainieren, bis sie Muster in Datensätzen erkennt.
Wäre es also möglich, dass sich solche Programme mithilfe gigantischer Datenmengen und globaler Computerpower irgendwann eine vom Menschen nicht mehr erreichbare Intelligenz zulegen?

Nun, maschinelles Lernen ist Ganascias Spezialgebiet. Sein Verdikt lautet, bisher habe sich noch keines dieser Programme menschlicher Intelligenz auch nur angenähert – was  natürlich noch kein Unmöglichkeitsbeweis wäre. Aber den wollen Ganascia und Brooks auch gar nicht antreten. Sie überlassen die ferne Zukunft der fernen Zukunft. Die eigentliche Gefahr bestehe zurzeit nicht darin, künstliche Intelligenz zu unter-, sondern sie zu überschätzen, schreibt Ganascia: „Die Angst maskiert die Gefahr.“

Reif für die Insel

Gefahren drohen durchaus. „Künsliche-Intelligenz-Algorithmen“ befinden beispielsweise über Versicherungs- oder Kreditanträge. Ihre Entscheidungen haben den Nimbus der Objektivität. In die Modelle der Wirklichkeit, die sich ein KI-System zurechtlegt, können sich allerdings Vorurteile einschleichen, etwa wenn das Vorstrafenregister oder der Wohnort zur Datenbasis gehören – schließlich spiegeln Biografien auch Diskriminierungen wider.

In der vergangenen Woche wiederum berichteten Forscher von einem KNN, das einigermaßen verlässlich aus Gesichtszügen von Probanden auf die Wahrscheinlichkeit schloss, dass diese schwul oder lesbisch seien. So ein Programm kann auf üble Art missbraucht werden. Allerdings ist seine Aussagekraft begrenzt. Trainiert wurde das KNN nämlich ausschließlich mit Porträts, die junge Weiße von sich selbst auf eine Dating-Website gestellt hatten – mit Bildern also, die der sexuellen Kontaktaufnahme dienten. Das heißt noch längst nicht, dass man entsprechende Rückschlüsse aus jedem beliebigen Bewerbungsfoto ziehen könnte.

KI-Systeme zeigen eine allzu menschliche Eigenschaft: Sie erkennen nicht, wo die Grenzen ihrer Kompetenz liegen. Das war schon der wunde Punkt jener „Expertensysteme“, die es in den achtziger Jahren bis in die Industrie geschafft hatten. Sie basierten auf expliziten Wenn-dann-Regeln.

Als später die KNN ihren Siegeszug antraten, stellte sich heraus, das sie trotz aller architektonischen Unterschiede die gleiche Schwäche aufwiesen. Waren Expertensysteme von vornherein Fachidioten, so werden es lernende Programme durch zu intensives Training: Sie sind dann so sehr auf bestimmte Situationen geeicht – zum Beispiel auf die Bilder junger Weißer auf Dating-Plattformen –, dass sie mit leicht abweichenden Datensätzen oft nicht zurechtkommen (overfitting).

Kürzlich foppten Forscher ein KNN, das ein selbstlenkendes Fahrzeug dirigierte, mit minimalen Veränderungen an Straßenschildern – woraufhin die Software ein Stoppzeichen als Geschwindigkeitsbegrenzung interpretierte. Andere Systeme automatischer Bilderkennung konnten auf Fotos zwar Gegenstände oder Individuen klassifizieren, dann aber identifizierten sie bestimmte Streifenmuster überraschenderweise als Pinguine oder E-Gitarren. Sie hatten sich auf optische Einzelaspekte von Objekten spezialisiert und ihren Sinn für deren Gestalt verloren. Das berühmte Programm AlphaGo wiederum, das die besten menschlichen Go-Spieler schlägt, ist hilflos wie ein Säugling, sobald jemand das 19 mal 19 Felder große Brett auch nur leicht verkleinert oder vergrößert. Ein menschlicher Spieler könnte sich der neuen Lage mit Leichtigkeit anpassen.

Brooks schildert ein besonders faszinierendes Beispiel. Da spuckte ein KI-Programm den Plan für eine elektronische Schaltung aus, und die enthielt merkwürdigerweise weniger Komponenten, als ein Mensch für möglich erachtet hätte. Zugleich gab es Komponenten, zwischen denen gar kein Strom floss. Und, Überraschung, die Schaltung funktionierte trotzdem. Wieso? Es stellte sich heraus, dass einige ihrer Elemente einander nicht über elektrische Leiterbahnen, sondern über elektromagnetische Felder beeinflussten. Ingenieure kennen solche Effekte – und vermeiden sie, weil diese schwer beherrschbar sind. In der Tat versah die famose Schaltung aus der KI nur unter ganz bestimmten Bedingungen ihren Dienst. Die Software war überspezialisiert.

Ein weiteres Problem kommt hinzu: Wenn sich ein aus Hunderten von Schichten aufgebautes, mit Myriaden von Daten gefüttertes KNN lernend auf bestimmte Grundannahmen oder Modelle eingeschwungen hat, dann sind seine Unzulänglichkeiten und Grenzen oft nicht – oder nur schwer – von außen zu erkennen, denn es enthält diese implizit, nicht nachlesbar und ausdrücklich. Überhaupt sind die Grenzen der KI immer noch Gegenstand der Grundlagenforschung, etwa in einem Programm der Darpa, der Forschungsbehörde des US-Verteidigungsministeriums; es heißt Fundamental Limits of Learning (Akronym: FunLoL).

Dieser Undurchsichtigkeit wegen ist die Forderung aufgekommen, „dass es jederzeit möglich sein muss, die Berechnungen von KI-Systemen zurück in eine für den Menschen verständliche Form zu überführen“ – so beschloss es das Europäische Parlament im Februar. Die Parlamentarier forderten auch die Einrichtung einer EU-Agentur für Roboter und künstliche Intelligenz. Eine Bürokratenidee? Keineswegs. Im Mai erhoben Forscher im Fachblatt Science Robotics ebenfalls die Forderung, KI- und Robotersysteme müssten ihr Handeln erklären können.

„Wenn dabei die Transparenz zulasten der Performance“ ginge, heißt es in dem Aufsatz , dann sei dieser Zielkonflikt eben ein sinnvolles Forschungsfeld. So ist es.
Und, man möchte sich daher wünschen dürfen,  dass die großen Internetfirmen zumindest eines ihrer apokalyptischen Zukunftsinstitute zu diesem praktischen Zweck umwidmen würden.

Juli 2018 | Allgemein, Gesundheit, Junge Rundschau, Wirtschaft, Wissenschaft | Kommentieren

Kommentar abgeben