Die Welt hat sich verändert. Auf den ersten Blick ist etwas geschehen, das nur für Fachleute interessant ist: Eine Google-Tochter gewinnt einen Wettbewerb. Doch dieser Sieg ist der Vorbote einer neuen Zeit.
Wenn man die Tragweite eines vermeintlichen wissenschaftlichen Durchbruchs halbwegs verlässlich beurteilen möchte, fragt man am besten die Leute, deren Lebenswerk der Durchbruch überflüssig gemacht hat. »Es ist fantastisch, es wird die Zukunft der Strukturbiologie und der Proteinforschung verändern.« »Das hier wird die Medizin verändern. Es wird die Forschung verändern. Es wird Bioengineering verändern. Es wird alles verändern.«
»Ich hätte nicht gedacht, dass ich das noch miterleben würde.«
Die drei Zitate stammen, in dieser Reihenfolge, von der Bioinformatikerin Janet Thornton (fast 50 Jahre Erfahrung, emeritierte Direktorin des Europäischen Instituts für Bioinformatik), von Andrei Lupas, Direktor am Max-Planck-Institut für Entwicklungsbiologie in Tübingen und von John Moult, einem der Gründer des sogenannten CASP-Wettbewerbs. Es gibt noch jede Menge weitere Kommentare von dieser Sorte, alle von ausgewiesenen Fachleuten.
Darunter durchaus auch kritische, mit zwei Hauptrichtungen: »Es gibt noch viel zu tun.« Und: »Wir wissen ja noch gar nicht, wie die das machen«.
Wie das funktioniert, wissen nur die Google-Forscher
Der letztere Punkt dürfte für die kommenden Jahre der wichtigere sein, denn »sie«, das ist in diesem Fall Deepmind, eine Tochter des Suchmaschinenkonzerns Google/Alphabet. Deepmind hat ein Werkzeug gebaut, das eine der schwierigsten Aufgaben in der Molekularbiologie besser, effektiver und schneller lösen kann als ganze Forscherteams mit vielen Jahren Erfahrung. Wie das Werkzeug funktioniert, wissen aber nur Googles Forscher. Und möglicherweise nicht einmal die. Eine Veröffentlichung zum Thema ist angekündigt, aber wie detailliert die sein wird, ist unklar.
CASP steht für Critical Assessment of Protein Structure Prediction. Darum geht es in dem alle zwei Jahre ausgetragenen Wettbewerb: auf Basis einer Abfolge von Aminosäuren vorherzusagen, welche Form ein in einer Zelle gebildetes Protein am Ende haben wird. Das Problem selbst – wie sieht das Protein am Ende aus? – gilt in der Wissenschaft seit 50 Jahren als »Grand Challenge«, als große Herausforderung also. Jetzt scheint es gelöst zu sein, so sehen das zumindest manche der Kommentatoren.
Besser als alle Profis
Beachtenswert ist dabei auch dies: Die Profis sind einmal mehr überrascht, obwohl Deepmind den Wettbewerb bereits vor zwei Jahren mit Abstand gewonnen hat (das war damals schon Thema dieser Kolumne). Das ist das Wesen lernender Maschinen: Wenn man einmal weiß, wie man es anstellen muss, werden sie atemberaubend schnell besser. Diese Erfahrung machen die Profis in den Gebieten, die sich Deepmind vornimmt, immer wieder. Manche geben dann zu, dass sie verblüfft sind, andere rufen: »Hype!«
Deepminds lernendes System AlphaFold liefert jetzt so gute Ergebnisse, dass sie von experimentell, also physisch im Labor hergestellten Proteinstrukturen kaum noch abweichen. Die Maschine kann also die Grundbausteine des Lebens ausrechnen, besser als alle Menschen, deren Beruf das ist. Konkretes Beispiel: AlphaFold löste im Wettbewerb eine Aufgabe, an der das Team des oben zitierten Andrei Lupas seit zehn Jahren erfolglos arbeitet.
Das Experiment sind wir: Unsere Welt verändert sich so atemberaubend schnell, dass wir von Krise zu Krise taumeln. Wir müssen lernen, diese enorme Beschleunigung zu lenken
Es lohnt sehr, solche Aufgaben zu lösen. Wer Proteinstrukturen versteht, gewinnt zum Beispiel auch neue Macht über Krankheiten: Auch die ersten Impfstoffe gegen Sars-CoV-2 hingen nicht zuletzt davon ab, dass die Struktur eines bestimmten Virenproteins schon im März vollständig beschrieben war – allerdings mithilfe herkömmlicher Methoden.
Die Welt der Mikro- und Molekularbiologie hat zuweilen Ähnlichkeit mit einer unfassbar komplexen Version von Lego. Wer solche Aufgaben lösen kann, ist auch eher in der Lage, künstliche Organismen zu erzeugen, die bestimmte, wohldefinierte Aufgaben erfüllen.
Falls Sie diese letztere Bemerkung gruselig finden: Insulin für Diabetiker zum Beispiel wird schon seit den Siebzigerjahren von eigens zu diesem Zweck hergestellten Zellen gewonnen.
Es geht bei Weitem nicht nur um Proteine
Um die ganze Tragweite dieser Entwicklung zu verstehen, muss man aber noch einen Schritt weiter zurücktreten. Was an der Proteinfaltungsvorhersage so schwierig ist, ist die Vielzahl der komplizierten Wechselwirkungen zwischen den einzelnen Aminosäuren, den Bausteinen, aus denen die Proteine bestehen. Alle zerren aneinander, so kann man sich das in etwa vorstellen, und am Ende krümmt und windet sich das Protein dann zu einer schwer vorhersagbaren, verzwirbelten Form.
Dieses Phänomen – in der Natur vorkommende Ereignisse sind das Ergebnis vieler komplexer Wechselwirkungen, was präzise Vorhersagen schwierig macht – begegnet einem in vielen Disziplinen. Aus dem gleichen Grund ist eine Sieben-Tage-Wettervorhersage in der Regel keinen Pfifferling wert. Ein anderes Beispiel ist das Dreikörperproblem in der Physik. Die Wissenschaft ist voll von solchen komplexen Problemen, die sich der Vorhersagbarkeit fast oder ganz entziehen. Oft aber liegen genau die riesigen Datenmengen längst vor, die lernende Maschinen zum Trainieren brauchen.
Das Grundprinzip funktioniert auch anderswo
Das kann extrem nützlich sein: Schon 2020 wurde erstmals ein Antibiotikum, das gegen multiresistente Krankenhauskeime hilft, mithilfe einer lernenden Maschine entdeckt. Es vollzieht sich gerade eine Revolution, aber das ist vielen noch nicht klar. Und nein, das ist kein »Hype«.
Was Systeme wie AlphaFold (das seinen Namen übrigens wegen seiner Verwandtschaft zu Deepminds Go-System AlphaGo trägt) können, ist: Aus einer Vielzahl von Beispielen, vorgegeben oder, im Fall von Go, im Spiel gegen sich selbst erzeugt, Gesetzmäßigkeiten ableiten. Das erlaubt Vorhersagen. Sie finden Ordnung im Chaos, sie erzeugen selbst für Fachleute nicht nachvollziehbare Prophezeiungen, die dann im Idealfall tatsächlich eintreten. Sie finden Strukturen dort, wo Menschen bislang scheitern. Ohne dass die Menschen so recht begreifen, wie genau sie das machen.
Maschinen, die uns beim Forschen den Rang ablaufen
AlphaFold konnte davon profitieren, dass bereits etwa 170.000 Proteinstrukturen bekannt sind – aus diesem Trainingsmaterial extrahierte die lernende Maschine das Wissen, das sie nun auf neue Probleme anwenden kann. Um die Größenordnung des noch immer zu lösenden Problems greifbar zu machen: Es gibt, über alle bekannten Lebensformen hinweg, mehr als 200 Millionen unterschiedliche Proteine. Allein im menschlichen Körper sind mindestens Zehntausende davon am Werk. Viele davon sind für die gegenwärtige Version von AlphaFold aber vermutlich noch viel zu komplex.
Die Entwicklung wird aber nicht beim Thema Proteinfaltung enden.
Das Grundprinzip von AlphaFold lässt sich ebenso auf eine Vielzahl anderer Probleme anwenden. Maschinen werden in den kommenden Jahren in wachsendem Tempo wissenschaftliche Probleme lösen, an denen sich Fachleute seit Jahrzehnten die Zähne ausbeißen. Forscherinnen und Forscher werden die Erkenntnisse der lernenden Maschinen im Nachhinein erklären müssen. Früher brauchte man ein ausformuliertes Modell, um daraus Vorhersagen ableiten zu können. Jetzt generieren Maschinen funktionierende Vorhersagen, und die Menschheit muss im Rückblick verstehen, wie das ultrakomplexe Modell aussehen könnte, auf dem sie basieren. Wer aber wird die mächtigsten dieser Maschinen bauen?
Googles Macht wächst weiter
Das Jahr 2020 wird nicht nur als das Jahr der Corona-Pandemie in die Geschichte eingehen und als das Jahr, in dem Donald Trump die Wahl verlor. Es wird künftigen Generationen auch als das Jahr bekannt sein, in dem die Maschinen begannen, uns beim Forschen den Rang abzulaufen.
Und das Jahr, in dem Google, der erste Konzern, dessen Reichtum schon jetzt auf lernenden Maschinen basiert, seine Macht auf ein völlig neues Feld ausweitete.