Textversion für blinde und sehbehinderte Personen sitemap
Home Brainform Textraum Hochzeit Arbeit Forschung Spielverlag encyclog

Das Gehirn als dynamisches System: auf dem Weg zum Neurocomputer

Die Hirnforschung hat in den vergangenen Jahren grosse Erfolge erzielt – insbesondere bei der Erforschung der Mikroebene. Die grundlegende Frage, wie das Gehirn Informationen verarbeitet ist aber weitgehend ungeklärt geblieben. Basierend auf der Theorie dynamischer Systeme lassen sich neue Erklärungsmuster generieren, welche vielleicht sogar den Bau neuartiger Computer erlauben.

Das menschliche Gehirn gilt gemeinhin als komplexeste Struktur des bekannten Universums. Ausdruck dieser Komplexität ist die unglaublich scheinende Vielzahl an Nervenzellen und deren Verknüpfung. Man schätzt die Zahl der Neuronen im Kortex auf 100 Milliarden Zellen und die Zahl der Synampsen – also der Verbindungen zwischen den Nervenzellen – auf 100 Billionen! [x???]. Zweifellos stehen die erstaunlichen Leistungen des menschlichen Denkens in einer direkten Verbindung zum Zusammenwirken dieses komplexen Verbundes von Nervenzellen. Die Erkundung dieser Prozesse dürfte ein Schlüssel für das Verständnis des Gehirns sein.

Dies braucht Fachwissen aus den verschiedensten Bereichen: Das interdisziplinäre Forschungsfeld Neurowissenschaften vereinigt dazu Experten aus Biologen, Medizin, Mathematik, Physik, Computerwissenschaft wie Kognitionspsychologie. So hat sich in den vergangenen gut drei Jahrzehnten ein neues wissenschaftliches Gebiet etabliert, das im kommenden Jahrhundert sowohl vom wissenschaftlichen wie auch philosophischen Gesichtspunkt aus gesehen prägende Erkenntnisse liefern wird.

Ausgehend von der Forschungsstrategie bei der Erkundung solch komplexer Systeme wie das Gehirn lassen sich grundsätzlich zwei Ansätze unterscheiden: Der bottom-up-Ansatz geht aus von einer Erforschung der Vorgänge auf der Mikroebene – also auf Stufe der Neuronen. Diese klassische, reduktionistische Ansatz greift insbesondere auf das Wissen der Molekularbiologie und Genetik zurück. Im Zug der Genom-Revolution der vergangenen zwei Jahrzehnte konnte deshalb auch die Hirnforschung von einem erstaunlichen Wissenszuwachs profitieren. Dies ist von nicht geringer Bedeutung, weil das Gehirn mehr als jeder andere Körperteil auf das menschliche Ergbut zurück greift: Nirgends sonst im Körper werden mehr Gene abgelesen. Die dabei erzeugten Proteine haben eine wichtige Rolle bei Vorgängen wie der Erzeugung von Aktionspotentialen, der Signalübertragung zwischen Nervenzellen via Transmittersubstanzen oder der Sekretion von Wachstumsfaktoren. Der bottom-up-Ansatz kann damit nicht nur wichtige Erkenntnise vorweisen, sondern verspricht auch weitere Erfolge, weil er auf einen bewährten methodischen Apparat zurückreifen kann.

Der top-down-Ansatz wiederum untersucht und modelliert die Leistungen des Gehirns als Ganzes. Dieser synthetische Ansatz findet seine Wurzeln in den Systemwissenschaften, welche in der Mitte des 20. Jahrhunderts formuliert wurden. Ausgehend von der Kybernetik, der frühen künstlichen-Intelligenz-Forschung und der General System Theory und unter Einbindung der Computerwissenschaften entwickelte sich daraus das Feld der computationalen Neurowissenschaften (gebräuchlich ist auch die angelsächsische Ausdrucksweise „Neuroscience“) bzw. der Neuroinformatik . Natürlich lassen sich auch ältere Forschungsansätze zumindest teilweise in den top-down-Ansatz eingliedern, so etwa die kognitive Psychologie.

Der top-down-Ansatz sieht sich mit dem Problem der Komplexitätsreduktion auseinandergesetzt. Das Wissen über die schier unglaubliche Konnektivität der Nervenzellen lässt sich bis auf weiteres nicht eins zu eins auf Modelle übertragen – geschweige denn, dass die Vernetzung überhaupt im Detail geklärt ist. Bedeutsam für den top-down-Ansatz ist heute das Aufkommen der modernen bildgebenden Verfahren wie die Kernresonanz-Tomographie oder functional MRI, welche eine Zuordnung von bestimmten kognitiven Leistungen zu Hirnteilen zulassen. Diese neuen Methoden sowie die verstärkt zur Verfügung stehende Rechnerleistung lassen auch im top-down-Ansatz berechtigte Hoffnungen keimen.

Die künftige Herausforderung ist es, die beiden Ansätze auf der mesoskopischen Ebene zu verbinden. Dies ist zu einem wichtigen Thema der Neuroinformatik geworden. [vgl. Biol. Cybern. ???] Entscheidende offene Fragen in der Hirnforschung liegen denn auch in diesem Bereich. Ein prominentes Beispiel ist der bisher nicht geklärte Informationsbegriff. Es ist bekannt, dass Nervenzellen mit Aktionspotentialen – sogenannten Spikes – Signale abfeuern. Doch wo steckt in einer solchen Abfolge von Spikes die Information? Welche Abfolge von Spikes trägt Bedeutung und welche ist lediglich Rauschen? Zwei Theorien werden derzeit diskutiert: Ein Ansatz geht davon aus, dass die Information frequenzkodiert ist. Eine schnellere Abfolge von Spikes bedeutet dann beispielsweise ein stärkerer Reiz. Ein anderer sieht im genauen Timing der Spikes den wesentlichen Aspekt. Hier spielt also die Synchronisation von Teilen eines Netzwerkes eine Rolle. Eine Klärung dieser Frage ist entscheidend, wenn es um die angesprochene Verbindung der beiden Forschungsstrategien geht.

Fortschritte lassen sich oft dann erreichen, wenn die Sichtweise auf ein Problem ändert. Dies ist der Ansatzpunkt der Gruppe Stoop am Institut für Neuroinformatik in Zürich. Die Idee ist, den Begriffsapparat der Theorie dynamischer Systeme (siehe Kasten 1) auf das mesoskopische Zusammenwirken der Neuronen anzuwenden. Veränderung des Systems werden in einem Phasenraum dargestellt, stabile Muster in diesem Verhalten werden in Beziehung zu Attraktoren gesetzt. Die Anwendung von dynamischen Systemkonzepten ist relativ neu, ein Grossteil der Arbeiten ist erst in den 90er Jahren veröffentlicht worden [Thagard 1996]. Der theoretische Reiz dieses Ansatzes liegt darin, dass in der Theorie dynamischer Systeme das komplexe Verhalten eines Systems oft auf eine kleine Zahl relevanter Variablen zurückgeführt werden kann. Damit kann das angesprochene Problem der Komplexitätsreduktion angegangen werden.

Das Hauptinteresse der Gruppe Stoop liegt derzeit in der Untersuchung des Verhaltens von kleinen Neuronenverbänden. Lässt sich verstehen, wie Informationen in solchen kleinen Netzwerken von nur wenigen Neuronen repräsentiert und ausgetauscht wird, so ist ein entscheidender Schritt hin zum Verständnis des Informationsproblems getan. Der Grundzustand der meisten Neuronen besteht in regelmässigem Feuern; sie können deshalb als Oszillatoren aufgefasst werden. Unter dem Einfluss der Anregung durch andere Neuronen gelangen diese Oszillatoren in eine veränderte oszillatorischen Zustandsform, welche durch eine (meist nichttriviale) Periodizität gekennzeichnet ist. Nur durch eine genügend grosse Änderung des eigenen Zustandes oder des Zustandes der Partnerneuronen kann das Neuron in einen neuen Zustand gelangen, der gekennzeichnet ist durch eine veränderte Periodizität (Einrastung, oder Locking von periodischen Vorgängen). Im Fall von inhibitorischen Verbindungen können regelmässige Anregungen schliesslich dazu führen, dass das Zielneuron chaotisch antwortet. Dies ist ein nichtlinearer Effekt. Diese Verhalten lassen sich mit dem mathematischen Modell der Kreisabbildung in Beziehung setzen und begründen (Kasten 2).

Die geschilderten Phänomene von Locking und Chaos wurde auf der Ebene von Modellen sowie durch in-virto-Experimenten bei Pyramidenzellen von Ratten bereits sichergestellt [Neuroscience Research]. Bei in-vivo-Experimenten fehlt bisher die Bestätigung. Die Gruppe Stoop arbeitet derzeit am experimentellen Nachweis der Hypothese, dass diese unter in-vivo-Bedingungen von ebenso grosser Bedeutung sind.

Vom theoretischen Standpunkt aus ist der Ansatz des Locking deshalb interessant, weil er den Neuronen die Möglichkeit gibt, sich in potentiell unendlich vielen Zustandsformen ausdrücken zu können. Stehen diese Zustandsformen im Bezug zur Repräsentation von Information, so hat man einen potenten Erklärungsansatz dafür, warum das Gehirn derart leistungsfähig Information verarbeiten kann. Die Vielzahl der zugänglichen Oszillatorzustände und nicht wie bisher geglaubt die enorme Parallelität der neuralen Informationsverarbeitung, welche mikroskopisch fragwürdig ist, wäre dann der Schlüssel für das Verständnis des Gehirns.

Lässt sich zeigen, dass dieses Prinzip tatsächlich in Netzwerken von Neuronen realisiert wird, so steht auch der Weg zu technischen Innovationen offen. Konkret geht es darum, einen Neurocomputer zu bauen, der in gleicher Weise wie Nervenzellen vom Locking Gebrauch macht. Den Bausteine eines solchen Computers stünden also nicht nur zwei Zustände zur Verfügung (er wäre nicht nur binär KANN MAN DAS SAGEN???), sondern potentiell unendlich viele. Hier lässt sich eine Analogie zu den sogenannten Quantencomputern finden: Auch hier erhofft man sich den Bau eines Computers, der auf potentiell unendlich viele Zustände zurückgreifen kann. Einem Neurocomputer wären Leistungsbereiche zugänglich, welche den klassischen Computern nicht zugänglich sind. Man hätte einen Technologiesprung jenseits des Moorschen Gesetzes erreicht.


Dynamische Systeme

Ein dynamisches System lässt sich vereinfachend als eine mathematische Beschreibung eines zeitveränderlichen Systemes durch Differentialgleichungen oder, in einer vereinfachten Weise, durch iterierte Abbildungen f[f[f..f[x]]..] verstehen. Die Zustandsvariablen können dabei intensiv oder extensiv, individuell oder populationsbezogen sein. Von besonderem Interesse sind dabei im Phasenraum begrenzte Systeme (wie etwa das Ökosystem der Erde). In diesen ist die zentrale Frage die nach der Wiederholung und der Voraussagbarkeit eines bestimmten Ereignisses. Mathematisch ausgedrückt wird dies durch den Begriff der Periodizität eines Systems, beziehungsweise durch seine Stabilität.

Der Übergang von einem Zustand (ausgedrückt etwa durch eine stabile Periode) in einen anderen kann als eine Lösungsverzweigung oder Bifurkation gekennzeichnet werden. Solche Bifurkationen haben sich als ausserordentlich wirkungsvolle Ansätze zur Beschreibung biologischer Prozesse erwiesen. Ein Beispiel dazu ist die Erklärung der phänomenalen Eigenschaften des Gehörs der Wirbeltiere, welche auf einem Hopf-Bifurkationsprozess der Haarzellen zu beruhen scheinen [x]. Könnte das auch für das Gehirn eine analoge Rolle spielen ? Im Zusammenwirken von feuernden Neuronen gibt es dabei ein universelles Szenario von Bifurkationen, dasjenige der Arnold Zungen.



Locking und Arnold Zungen:

Arnold Zungen charakterisieren den Übergang des Zustandes eines feuernden Neurons, wenn auf dieses sich im starken Austausch mit einem anderen Neuron befindet. Es zeigt sich, dass diese Situation vollständig erfasst werden kann durch Störstärke und das Verhältnis der Frequenzen des gestörten Systems und des Störsystems. Wird nun einer dieser Parameter ein wenig verändert, so bleibt bleibt innerhalb gewisser Grenzen das System der Periodiziät verhaftet, bis die Veränderung zu gross wird und das System sich in eine neue Periodizität einrastet. Dieses Prinzip des Einrastens in Periodizitäten ist nicht auf Neuronen beschränkt; sie hat eine lange Geschichte. Diese geht zurück auf den Physiker und Optiker Christian Huygens, der sie am Beispiel von miteinander gekoppelten Pendeluhren entdeckt und beschrieben hat [x]. Im Zusammenhang mit der Frage nach der Stabilität des Dreikörpersystems (Stichwort KAM-Theorem [x]) wurde dieses Phänomen erneut als wichtig erkannt und unter anderen durch den russischen Mathematiker V.I.Arnold eingehend studiert. Die berühmten Arnold Zungen umfassen diejenigen Gebiete im Parameterbereich, in denen das System in derselben Periodizität eingerastet bleibt. Technisch gesehen kann das Einrasten (locking) als ein perfekten Beispiel eines A/D-Wandlers verstanden werden.

Wie das bekanntere Beispiel der Periodenverdoppelung, ist auch das Einrasten Ausdruck einer Universalitätsklasse. Die entsprechende Klasse umfasst alle Situationen, in denen periodische Systeme sich miteinander austauschen. Alle wesentlichen Eigenschaften der Universalitätsklasse können durch die Untersuchung des einfachsten Vertreters dieser Klasse abgeleitet und verstanden werden. Für die mit dem Einrasten verbundene Universalitätsklasse ist dies die Kreisabbildung phi(i+1)=ph(i)+ Omega-K sin(Phi(i)), wobei Omega das oben beschriebene Verhältnis der Frequenzen und K die Störstärke bezeichnet.


Der Hirn-Chip

„Computers on the brain“ prangte auf der Titelseite der jüngsten Ausgabe des Wissenschaftsmagazins „Nature“. Neuroinformatikern des gleichnamigen Instituts in Zürich ist ein weiterer Schritt hin zum Neurocomputer gelungen. Sie bauten einem Chip und holten sich für dessen Verschaltung die Inspiration aus dem Gehirn. Der Chip reproduziert das Verhalten von Nervenzellen (Neuronen), namentlich deren Fähigkeit, Signale auszuwählen und verstärken zu können. Dieses Verhalten ist beispielsweise zentral für die Fähigkeit des menschlichen Gehirns, aus einer Vielzahl von optischer Information die Wichtigste auszuwählen und die Augen auf dieses Ziel hin zu richten. Der Chip kann als erstes simples „Silizium-Modell“ für Aufmerksamkeit gelten.

Das Interessante an diesem Chip ist die Vereinigung analoger und digitaler Prinzipien: Zur Verstärkung von Signalen wurden bisher üblicherweise analoge Schaltkreise verwendet, währendem die Auswahl eines Signals aus einer ganzen Anzahl konkurrenzierender Signale mittels digitaler Prozesse geschah. Der neue Schaltkreis kann nun – wie dies natürliche Neuronen auch können – beides zusammen. Die Architektur des Chips kann man sich wie folgt vorstellen: Ein Ring von 16 rückgekoppelten „Silizium-Neuronen“ umschliesst ein 17. „Silizium-Neuron“. Letzteres wirkt hemmend auf die Verschaltung der anderen Neuronen. Der Chip orientiert sich damit an den gängigen Theorien der lokalen Verschaltung von Nervenzellen in der Grosshirnrinde.

Bereits 1996 haben Forscher in Computersimulationen herausgefunden, dass ein Netzwerk von derart geschalteten künstlichen Neuronen das Verhalten der Natürlichen reproduzieren können. Der „Hirn-Chip“ ist nun die erste praktische Realisierung dieser theoretischen Vorarbeit. Vom neurobiologischen Standpunkt aus betrachtet sind zwar einige der Voraussetzungen, die in das Chip-Design hineingeflossen sind, zu weit von der Realität entfernt. Doch die Neuroinformatiker hoffen, mit Hilfe des Chips Einblick in die erstaunlichen Rechenkapazitäten des Nervensystems zu gewinnen. Die Kommentatoren der Studie im „Nature“ meinten jedenfalls: „Nun wissen wir genug um Schaltkreise bauen zu können, die rechnen werden wie biologische Systeme“.

Textversion für blinde und sehbehinderte Personen © 2024 goleon* websolutions gmbh