Textversion für blinde und sehbehinderte Personen sitemap
Home Brainform Textraum Hochzeit Arbeit Forschung Spielverlag encyclog

Gehirn-Simulationen - ein hindernisreicher Erkenntnisweg

Computersimulationen gewinnen in der Hirnforschung zunehmend an Bedeutung. Aufbau und Zielsetzungen der Modelle sind aber unterschiedlich. Manche sollen etwa den Weg weisen, welche Prozesse im Gehirn experimentell untersucht werden sollen.

Der Zuschlag der Europäischen Kommission zum «Human Brain Project» macht augenfällig: Auch die Hirnforschung setzt auf die enorme Rechenkraft moderner Computer, um Antworten auf grundlegende Fragen zu finden. Dies ist Teil einer umwälzenden Entwicklung. Drei der sechs Finalisten des europäischen «Flagship»-Wettbewerbs vertrauen massgeblich auf Simulationen für den Erkenntnisgewinn. Das in-silico-Experiment – also Versuche im Computer – wird nebst in-vitro- (im Reagenzglas) und in-vivo- (am lebenden Organismus) -Versuchen zum dritten Standbein der Forschung.

Gehirn und Computer

In der Hirnforschung ist die Rolle der Simulation besonders facettenreich, weil der Computer als Instrument der Simulation sowohl Gehirnmodelle inspiriert hat, als auch das Gehirn als Vorbild für künstliche Rechner diente. Grössen wie John von Neumann und Alan Turing sahen im Gehirn eine Inspiration für die Entwicklung «elektronischer Gehirne». Gewiss war bald klar, dass digitale Rechner Informationen auf ganz andere Art verarbeiten als das biologische Vorbild. Die genauen Mechanismen der Informationsverarbeitung sind beim Gehirn im Detail unklar – die Kluft zwischen Mustern von Nervenimpulsen und dem Gedankengang, den sie repräsentieren, ist weiterhin gross. Es ist umstritten, wie weit die Informations-Analogie in der Hirnforschung trägt, wie die Philosophin Brigitte Falkenburg in einem jüngst erschienenen Buch ausführt.

Die enorme Effizienz des Gehirns – ein menschliches Gehirn benötigt lediglich eine Leistung von 30 Watt – ist aber Ansporn zur Entwicklung neuer Technologien. Unter dem Stichwort «neuromorphic engineering» arbeiten Wissenschafter an Computerchips, die die Besonderheiten der biologischen Informationsverarbeitung nachbilden sollen. Man kann dies als eine Form von Hirnsimulation mittels Hardware ansehen. Die meisten heutigen Simulationen sind hingegen Software-basiert und in digitaler Technik implementiert. Die zum Einsatz kommenden Supercomputer nutzen dabei Prinzipien wie die parallele Informationsverarbeitung.

Unterschiedliche Ansätze

Modelle und Simulationen (siehe Kasten) werden auch in der Hirnforschung gebraucht, wie der Lausanner Physiker Wulfram Gerstner in einer jüngst erschienenen Arbeit in «Science» ausführt. Um deren Rolle zu verstehen, sind zwei Unterscheidungen wichtig: die Komplexität des Modells und der Ausgangspunkt der Modellbildung. Beim bottom-up Ansatz baut man das Modell aus gut verstandenen Einzelteilen bzw. grundlegenden Prinzipien auf; beim top-down Ansatz versucht man, eine Systemfunktion zu reproduzieren.

Nur einfache mathematische Modelle können analytisch verstanden werden. Je realitätsgetreuer man das Gehirn nachbilden will, desto grösser wird die Komplexität. So gibt es auf der Ebene der einzelnen Neuronen beispielsweise rund 200 verschiedene Typen von Ionenkanälen, die die elektrischen Eigenschaften der Neuronen bestimmen.

Die Unterscheidung zwischen bottom-up und top-down verweist auf eine besondere Schwierigkeit, mit der sich Hirn-Modellierer konfrontiert sehen. Prozesse auf zahlreichen Ebenen spielen eine Rolle: die molekulare, sub-zelluläre und zelluläre Ebene, die Ebene des lokalen Netzwerkes, des Netzwerkes zwischen Hirnregionen, und der Verschaltung mit Sinnesorganen und Muskeln. Gehirne sind zudem Teil sich verhaltender und sozialer Organismen. Gerstner sieht in Modellen ein Instrument, um diese Ebenen zu verbinden.

Bottom-up: Das Blue Brain

Das ambitionierteste bottom-up Modell wird an der ETH Lausanne umgesetzt: das 2005 begonnene «Blue Brain Projekt», das die Basis für das «Human Brain Project» bildet. Es handelt sich dabei nicht um ein einzelnes Modell. Vielmehr geht es um den Aufbau einer Strategie zur Integration von Daten über alle Ebenen der Organisation des Gehirns – quasi ein gigantischer Wissenskorpus, aus dem die Wissenschafter Modelle für bestimmte Zwecke herausziehen können. «Wir können nie alle Prozesse im Gehirn messen. Wir können aber aus den verfügbaren Daten und biologischen Prinzipien und unter Berücksichtigung von Nebenbedingungen systematisch Modelle erzeugen, die Wissenslücken überbrücken und die relevante Prozesse im Gehirn voraussagen. Danach können wir mit gezielten Experimenten im realen Gehirn prüfen, ob diese Voraussage und das damit erreichte Verständnis korrekt war», beschreibt Henry Markram die Strategie.

Derzeit ist «Blue Brain» in der Lage, eine Hirnregion bestehend aus etwa 100 Kolumnen (eine Struktur im Cortex) nachzubilden, das sind rund eine Million Neuronen und eine Milliarde Synapsen. Das Modell soll möglichst genau die strukturellen Eigenschaften des biologischen Originals nachbilden – also beispielsweise die statistische Verteilung der Ionenkanäle auf den Neuronen, die räumliche Verteilung der Neuronen und deren Verknüpfung.

Einen anderen Ansatz verfolgt die im kalifornischen San José beheimatete «Cognitive Computing Group» von IBM um den Computerwissenschafter Dharmendra Modha. Auch diese Wissenschafter betonen, es gehe um das Verständnis des menschlichen Gehirns, doch der Ansatz ist nicht vergleichbar mit Markrams Vorgehen. Die verwendeten Neuronen-Modelle sind deutlich einfacher – dafür ist das Modell quantitativ grösser. Aufsehen erregte 2009 die Veröffentlichung einer Simulation, die 1.6 Milliarden Neuronen und 8.87 Billionen Synapsen umfasste. Das ist etwa die Grösse der

Beeindruckend an diesem Modell war die computertechnische Leistung, eine derart grosse Zahl an Neuronen und Synapsen mit allen damit verbundenen Anforderungen an Berechnung (2 x 1013 synaptische Updates pro Sekunde), Speicherplatz (144 Terabytes) und Bitrate (1013 Impulse pro Sekunde) modellieren zu können. Inwieweit das Modell allerdings einen Erkenntnisgewinn für die Hirnforschung bringt, ist im Anschluss der Veröffentlichung kontrovers diskutiert worden. Zwar hat das Modell einige biologische Parameter implementiert, allerdings ähnelten die rhythmischen Oszillationen, die man als Output des Modells messen konnte «eher Epilepsie, als einem Muster, das man einem wirklichen Katzengehirn zuschreiben könnte», hielt der Hirnforscher Terry Sejnowski in einem Kommentar fest.

Ein drittes Beispiel ist das so genannte Spaun-Modell der University of Waterloo in Kanada. Das aus 2.5 Millionen Neuronen bestehende Modell reproduziert mittels eines biologisch inspirierten neuronalen Netzes acht Funktionen des Gehirns, zum Beispiel die Mustererkennung, das Nachzeichnen einer Figur und das Beantworten einfacher Fragen. Teil des Modells sind eine Kamera als sensorisches System und ein (virtueller) Roboterarm. Die Tatsache, dass ein einziges System alle Aufgaben lösen konnte und damit die Flexibilität biologischer Gehirne simuliert, war die Innovation dieses Modells.

Der Studienleiter Chris Eliasmith erklärt die Bedeutung solcher Modelle: Simulationen hätten für die Hirnforschung eine ähnliche Bedeutung wie Theorien in der Physik. Sie seien testbare Hypothesen darüber, wie das Gehirn bestimmte Funktionen realisiert. In einem nächsten Schritt will Eliasmith' Team neuromorphe Computerchips in das Modell integrieren, um die Rechenzeit zu beschleunigen.
Mit der zunehmenden Bedeutung von Simulationen in der Hirnforschung stellen sich die Fragen, wie sich diese Anwendungen auf die Forschungspraxis auswirken. Parallelen dazu finden sich in der Wetter- und Klimamodellierung, denn solche Modelle waren die ersten, die Mitte des 20. Jahrhunderts auf Computern umgesetzt wurden. Sie bilden den Kern heutiger Klimamodelle, die eine enorme politische Bedeutung erhalten haben.

Die Grenzen der Modelle

Die Sozialwissenschafterin Myanna Lahsen hat in einer Untersuchung der Klima-Modellierung einige kritische Punkte des Simulations-Ansatzes identifiziert: Erstens sind die Grenzen zwischen Modell-Erstellern und Modell-Nutzer schwammig, was Schnittstellen-Probleme mit sich bringt. Zweitens entfernen sich die Modellierer hinsichtlich Ausbildung und Berufspraxis vom Phänomen, das sie untersuchen. Drittens sinkt die kritische Distanz der Modellierer zu ihrem Modell. Viertens entwickeln die mittels Simulationen generierten Resultate aufgrund von Visualisierungstechniken eine suggestive Kraft, die im wissenschaftlichen Alltag die Grenze zwischen Modell und Realität verwischen kann. Dazu kommt, dass der Programm-Code keinem Peer Review unterliegt und eine Replikation der Modelle aufgrund des hohen Aufwandes praktisch nicht stattfindet. Ein Gegengewicht dazu bietet eine Vielfalt an Modellen: wenn Teams mit unterschiedlichen Ansätzen zu vergleichbaren Resultaten kommen, steigt das Vertrauen in die Resultate.

Solche Probleme dürften auch in der Neurowissenschaft virulenter werden, je grösser die Bedeutung von Simulationen wird. Dies kann Auswirkungen ausserhalb der Wissenschaft haben. Das «Human Brain Project» rechtfertigt die Investition öffentlicher Mittel damit, Ursachen von Krankheiten wie Depressionen oder Alzheimer zu finden. Es ist also nicht ausgeschlossen, dass Hirnmodelle dereinst eine ähnliche politische Bedeutung erhalten werden wie Klimamodelle. Ein Bewusstsein für die Herausforderungen des Simulations-Ansatzes wird dann zu einem Erfordernis.

 

KASTEN

Was wird simuliert?

mc. Wissenschaft generiert Erkenntnisse meist in Form von Modellen, die Wirkungszusammenhänge darlegen. Solche Modelle können als mathematische Gleichungen, als (Software-)Algorithmus oder physikalische Realisierung vorliegen. Wird ein Modell derart implementiert, so dass man das Verhalten des Modells in der Zeit untersuchen kann, spricht man von einer Simulation.

Simulationen dienen unterschiedlichen Zwecken: Im Fall einer Vorhersage kontrolliert man Input und Mechanismus und interessiert sich für den Output. Bei einer «Nachhersage» interessiert man sich bei definiertem Mechanismus und Output für den Input. Im Fall einer Erklärung sucht man bei bekanntem In- und Output nach dem Mechanismus. Bei einer Exploration schliesslich legt man den Mechanismus fest und prüft, welcher Input welchen Output erzeugt.

Bei bestimmten Problemen herrscht Einigkeit über die grundlegenden Wirkungsmechanismen. Bei einem kosmologischen Modell ist das etwa das Gravitationsgesetz. Bei vielen Simulationen ist aber umstritten, welche der möglichen Prozesse, die bei einem Phänomen eine Rolle spielen könnten, in das Modell eingehen sollen. Zudem können selbst bei Kenntnis der grundlegenden Mechanismen diese nicht immer in das Modell eingebaut werden, z. B. wegen der begrenzten Rechengeschwindigkeit oder weil empirische Daten fehlen. Man greift dann auf sogenannte Parametrisierungen zurück, die eine hinreichende Approximation erlauben sollen. Dazu kommt, dass mathematische Gleichungen, die das Modell bilden, meist gar nicht exakt sondern nur numerisch gelöst werden können. Die damit einhergehenden Rechenungenauigkeiten sind technisch anforderungsreich. Die Simulation ist also nur eine Approximation des Modells.

Textversion für blinde und sehbehinderte Personen © 2024 goleon* websolutions gmbh