Bild Artikel Maud Steinbach

Das Gehirn ist (k)ein Computer

Das Gehirn zu verstehen ist ein Traum der Menschheit. Doch trotz intensiver Forschung bleiben die Erkenntnisse rudimentär. Liegt dies an einem Mangel an Daten oder an den gängigen Forschungsmethoden? Und wie kann man überhaupt wissen, ob eine Methode angemessen ist, wenn deren Ergebnisse nicht überprüft werden können?

Der vorliegende Beitrag entstand im Rahmen der Sommerakademie Navigation und Semantische Karten der Schweizerischen Studienstiftung und wurde redaktionell begleitet von Reatch.

Das Gehirn beinhaltet ungefähr 86 Milliarden Nervenzellen, die über mehr als 3 Millionen Kilometer Nervenfasern untereinander verbunden sind [1]. Nur schon die schiere Anzahl an Komponenten macht das Gehirn zu einem unglaublich komplexen System. Dazu kommt, dass dieses Netzwerk keineswegs statisch ist und die Verbindungen kontinuierlich moduliert werden.

Doch genau dieses Forschungsfeld ist das Kerngebiet der Neurowissenschaften. Sowohl die Forschungstechnologien, insbesondere die bildgebenden Verfahren, als auch die technologischen Anwendungen der Hirnforschung haben in den letzten Jahrzehnten beträchtliche Fortschritte gemacht. Dazu gehört auch das Entwickeln von künstlichen Intelligenzen, was die Aufmerksamkeit der Öffentlichkeit erregt. Dementsprechend fehlt es nicht an beträchtlichen Investitionen, weder im privaten Sektor (z.B. OpenAI) noch im öffentlichen Bereich (z.B.«Human Brain Project» der Europäischen Union) [1]. Und doch bleibt vieles unverstanden. Weshalb, also, kennt sich die Menschheit nicht besser mit dem Gehirn aus, obwohl sie gar künstliche Intelligenzen entwickeln kann?

Vielleicht sind nicht die Daten schuld – sondern die Methoden?

Genau dies haben die Neurowissenschaftler Eric Jonas und Konrad Kording in einem 2017 publiziertem Artikel mit dem Titel «Could a Neuroscientist Understand a Microprocessor?» untersucht [2]. Entgegen der weitverbreiteten Meinung, die Forschung in den Neurowissenschaften sei durch die Menge an Daten limitiert, hinterfragten sie stattdessen die Methoden. Anstatt auf besagte komplexe Datensätze zu warten, widmeten sie sich der Frage, ob die Experimente und Datenanalysemethoden überhaupt aufschlussreiche und korrekte Ergebnisse liefern können. Doch: Wie kann die Methode überprüft werden, wenn die «Lösung» – die Funktionsweise des Gehirns – unbekannt ist? Am besten mit einem bekannten System! So griffen sie auf eine beliebte Analogie zurück und verglichen das unverstandene Gehirn mit einem vollkommen verstandenen, vom Menschen gebauten Computerchip, dem MOS 6502.

Ein Chip als Modellorganismus

Der MOS 6502 ist ein 1975 auf den Markt gekommener Mikroprozessor, der 3'510 Transistoren beinhaltet und beispielsweise im Apple I Computer eingebaut war. Er ist in der Lage einfache Videospiele wie Donkey Kong, Space Invaders und Pitfall auszuführen. Die Forscher verglichen dabei den Chip mit dem Gehirn und die Spiele mit den Verhaltensweisen. Jonas und Kording wollten untersuchen, ob sie den Chip mithilfe gängiger Methoden der Neurowissenschaften verstehen können.

Eine dieser Methoden, «Läsionsstudie» genannt, ist beispielweise das Entfernen oder Schädigen eines Gehirnareals, um basierend auf dem resultierenden Verhalten Rückschlüsse auf die Funktion jenes Areals zu ziehen. Wird diese Methode jedoch auf den Chip angewandt, so käme man auf falsche Schlüsse. Beispielsweise gibt es eine Gruppe Transistoren, deren Zerstörung genau eines der drei Spiele am Starten hindert. Es wäre jedoch falsch daraus zu schliessen, dass diese Transistoren für genau jenes Spiel (analog genau jene «Verhaltensweise») spezialisiert sind. Vielmehr führen sie eine grundlegende Funktion aus, die für dieses Spiel nötig ist. [2]

Ein weiter Ansatz namens «Konnektomik» versucht, die anatomische Vernetzung aller Nervenzellen zu kartieren, um aus diesem Bild das Zusammenspiel zu verstehen. Die Analyse der Verschaltung der Chip-Transistoren ergibt eine Visualisierung von mehreren Clustern von Transistoren und deren Verbindungen. Auf den ersten Blick mag das beeindrucken. Auf den zweiten Blick wird jedoch klar, dass diese Ergebnisse keineswegs helfen, die Funktionsweise des Chips zu verstehen. [2] Obwohl das Nervensystem des Wurms C. elegans schon 1986 kartiert wurde, wird bis heute geforscht, wie es tatsächlich funktioniert [3] [4]. Denn von der Anatomie direkt auf die Funktion zu schliessen, ist bis jetzt schlicht und einfach unmöglich.

Weiter wurde untersucht, ob die Aktivität jedes einzelnen Transistoren mit jedem anderen Transistor korreliert. Das Ergebnis zeigt, dass die Korrelation zwischen den meisten Transistoren schwach bis sehr schwach ist. Überträgt man dies auf Nervenzellen, ergäbe sich eine Unabhängigkeit voneinanander, die es so nicht gibt. Die Analogie Computer-Hirn funktioniert diesbezüglich nicht. [2]

Weitere Methoden der Neurowissenschaften ergaben ähnlich ernüchternde Resultate – keine Methode erlaubte es, die Funktionsweise von MOS 6502 zu verstehen. [2]

Doch: Kann man Hirn und Chip überhaupt vergleichen?

Unter Forschenden herrscht kein Konsens. Einige zweifeln grundsätzlich die Analogie zwischen Chip und Gehirn an. Ein Grund dafür ist beispielsweise die sequenzielle Datenverarbeitung des Chips, wohingegen das Gehirn (sowie moderne Prozessoren) viele Berechnungen parallel durchführen [5]. Ausserdem funktioniert der Chip deterministisch, was bedeutet, dass ein spezifischer Input immer den gleichen Output ergibt. Im Gegensatz dazu fliessen beim Gehirn viele Zufallsvariablen ein [2]. Auch der Entstehungsprozess beider Systeme ist radikal verschieden. Der Chip wurde von einer Handvoll Ingenieur*innen designt, das Gehirn durchlief Jahrtausende Evolution und natürliche Selektion [2].

Deshalb: Auch wenn die Ergebnisse auf den ersten Blick desillusionierend wirken, bedeutet es noch nicht, dass die neurowissenschaftliche Forschung ihre Methoden und Ergebnisse über Bord werfen soll. Vielmehr plädieren Jonas und Kording dafür, dass in Zukunft Methoden an einem «Modellorganismus» wie dem Chip getestet werden sollen. Oder, dass man mithilfe des Chips als Testumgebung von Grund auf neue Methoden entwickelt.

Brauchen die Neurowissenschaften mehr Theorien?

Es gibt Stimmen, die dafür plädieren, dass man neuronale Prozesse sowieso in einem viel grösseren Kontext betrachten muss, um sie zu verstehen: In den letzten Jahren haben sich die Neurowissenschaften immer mehr in Richtung neuer experimenteller und datenanalytischer Methoden entwickelt. Gemäss Krakauer et al. [6], einem internationalen und interdisziplinären Team an Neurowissenschaftern, verloren sie dabei einen zentralen Aspekt aus den Augen: die biologischen Theorien, insbesondere Darwins Evolutionstheorie. Es solle nicht vergessen gehen, dass alle molekularen Prozesse eines Organismus in einem Verhalten resultieren, auf das die natürliche Selektion Druck ausübt. Deshalb, so Krakauer et al, würden die erwähnten Forschungsmethoden nur in Verbindung mit der Erforschung des Verhaltens sinnvolle Ergebnisse liefern.

Einen weiteren Ansatz verfolgen Fisher et al. [7], ein internationales Forschungsteam aus Bioinformatiker*innen und Informatiker*innen, mit ihrem Konzept des Tower of Abstraction. Ihrer Meinung nach könne die Komplexität des menschlichen Organismus und des Gehirns nur eingefangen werden, indem man die verschiedenen biologischen Ebenen des Organismus in einem verschachtelten Modell verbindet. Von der DNA über Proteine, von Signalkaskaden bis hin zu funktionellen Einheiten und schliesslich bis hin zum Phänotyp solle jede Ebene modelliert werden. Dabei solle jedes Modell auf demjenigen der nächsttieferen Stufe aufbauen. Nur so könne man die Zusammenhänge zwischen der Molekularbiologie und dem resultierenden Verhalten erschliessen.

Also, was ist jetzt: Reichen die klassischen neurowissenschaftlichen Methoden nicht aus, um einen Mikroprozessor zu verstehen? Oder lässt sich ein Mikroprozessor einfach nicht mit dem menschlichen Gehirn vergleichen? Diese Fragen bleiben bislang ungeklärt. Was aber sicher ist: Es braucht nicht nur ständiges Nachdenken in der Forschung, sondern auch über die Forschung.

Literaturverzeichnis

[1]

Human Brain Project. Human Brain Project. [Online] Dezember 6, 2023. https://www.humanbrainproject.eu/en/.

[2]

Jonas, Eric and Kording, Konrad Paul. Could a Neuroscientist Understand a Microprocessor. PLOS Computational Biology. Januar 2017, Vol. 13, pp. 1-24.

[3]

White, JG, et al. he structure of the nervous system of the nematode Caenorhabditis elegans. Philos Trans R Soc Lond B Biol Sci. 1986.

[4]

Atanas, Adam A and al., et. Brain-wide representations of behavior spanning multiple timescales and states in C. elegans. Cell. 2023, Vol. 186, 19.

[5]

The Economist Group Limited. Tests suggest the methods of neuroscience are left wanting. The Economist. January 21, 2017.

[6]

Krakauer, John W. and al., et. Neuroscience Needs Behavior: Correcting a Reductionist Bias. Neuron. 2017, Vol. 93, pp. 480-490.

[7]

The Only Way is Up - On A Tower of Abstractions for Biology. Fisher, Jasmin, Piterman, Nir and Vardi, Moshe Y. Limerick, Ireland : Springer, 2011. FM 2011: Formal Methods.

[8]

Mitra, Partha. Is Neuroscience Limited by Tools or Ideas? Scientific American. April 11, 2017.

Autor*innen

Autor*in

Maud Steinbach hat Biomedizin sowie angewandte Wahrscheinlichkeit und Statistik im Nebenfach an der Universität Zürich studiert. Neben den Naturwissenschaften und der Medizin begeistert sie sich für Sprachen, Politik, Geschichte und den gesellschaftlichen Diskurs rund um die Wissenschaft.

Die Beiträge auf dem Reatch-Blog geben die persönliche Meinung der Autor*innen wieder und entsprechen nicht zwingend derjenigen von Reatch oder seiner Mitglieder.

Zum Kommentieren mehr als 20 Zeichen im Text markieren und Sprechblase anklicken.

Wir freuen uns über nützliche Anmerkungen. Die Kommentare werden moderiert.