Textversion für blinde und sehbehinderte Personen sitemap
Home Brainform Textraum Hochzeit Arbeit Forschung Spielverlag encyclog

Als das Gehirn zum Computer wurde – und umgekehrt

Historische Wurzeln der technisch orientierten Hirnforschung

Markus Christen und Michael Hagner

Seit gut 50 Jahren befruchten sich Hirnforschung und Informationstechnologie gegenseitig. Das Einsickern technischer Konzepte hat die Neurowissenschaft inspiriert, zuweilen aber auch in die falsche Richtung geführt. In umgekehrter Richtung wiederum zeichnet sich in jüngster Zeit ein zunehmendes Interesse an „Neurotechnologie“ ab.

Ein bekanntes Phänomen in der Geschichte der Hirnforschung besteht darin, dass die jeweils modernste Technologie einer Zeit als Modell für die Erklärung des Gehirns herangezogen wurde. Als allerdings der Computer um 1950 im Umfeld der Kybernetik zur Leitmetapher für das Gehirn wurde, gab es auch eine Gegenbewegung: das Gehirn wurde zum Vorbild für informationsverarbeitende Technologien. Im Kontext dieser wechselseitigen Beeinflussung zwischen Hirnforschung und der entstehenden Computertechnologie entstand die Gehirn-Computer-Analogie, welche bis heute zumindest das öffentliche Bild des Gehirns zu einem wesentlichen Teil prägt.

Die historischen Wurzeln der Hirn-Computer-Analogie liegen zu einem wesentlichen Teil in umwälzenden wissenschaftlichen Entwicklungen zur Zeit des Zweiten Weltkriegs. Die Wichtigkeit der Forschung für militärische Zwecke führte vor allem in den USA zu gross angelegten Programmen, bei denen Vertreter bisher getrennt agierender Disziplinen zusammenarbeiteten. In dieser Atmosphäre entstanden damals neue wissenschaftliche Gebiete wie die Kybernetik und die Informationstheorie. Ungefähr zur gleichen Zeit führte die rasant angestiegene Nachfrage nach Rechenkraft, beispielsweise für ballistische Berechnungen, zur Entwicklung des Computers.

Neuronen als „Bauteile“

Trotz dieser rasanten Innovationen, die das Fundament der modernen Informationstechnologie legten, konnte die Assoziation von Gehirn und Computer jedoch nur gelingen, weil die Hirnforschung zwischen 1900 und 1940 einen Wissensstand erreicht hatte, der sie für Anwendung einer „informationstechnischen Metaphorik“ geeignet machte. So neigte sich erstens der über Jahrzehnte geführte Streit über die Frage, ob Neuronen (Nervenzellen) oder vielmehr ein zusammenhängendes Nervennetz als fundamentale Einheit für die Prozesse im Gehirn gelten sollen, definitiv in Richtung der Neuronen. Damit stand ein Element im Gehirn zur Verfügung, das den Status eines Bauteils einnehmen konnte und die Grundlage für die Annahme kleiner in sich zurücklaufender Funktionskreise („circuit loops“) bildete. Zweitens wurde der digitale „Alles oder nichts“-Charakter des Signalaustauschs zwischen den Neuronen erkannt. Bereits der englische Neurophysiologe Edgar Adrian sah in den 1920er Jahren in solchen Sequenzen von Nervenimpulsen „Nachrichten“ (messages), welche von den Sinnesorganen zum Gehirn gesandt wurden. Drittens schliesslich standen Messinstrumente für die Erfassung solcher „Nachrichten“ zur Verfügung. Deren Anwendung zeigte aber bald darauf die erstaunliche Variabilität der Neuronen, die auf gleiche Stimulation unterschiedlich reagierten. In einen technischen Kontext gestellt, führte dieses Phänomen zu der Frage, wie „fehlerhafte“ Neuronen überhaupt ein zuverlässiges Funktionieren der neuronalen Maschinerie ermöglichen. Gerade dieser Aspekt erwies sich später als wichtige Inspiration für die Entwicklung des Computers, denn fehlerhafte Bauteile waren für die frühen Computerentwickler eine zentrale Herausforderung.

Ein weiterer Strang von Verknüpfungen zwischen Hirnforschung und Computerentwicklung findet sich im Bereich der mathematischen Modellierung des Nervensystems. Hier ist ab den 1930er Jahren eine starke Zunahme der Zahl von Modellen für Prozesse im Nervensystem feststellbar. Zwei Ansätze sind besonders hervorzuheben: zum einen die Schule um den aus der Ukraine in die USA emigrierten Mathematiker Nicolas Rashevsky, zum anderen das Neuronen-Modell der Amerikaner Warren McCulloch und Walter Pitts. Rashevsky verfolgte das ehrgeizige Programm einer „mathematischen Biophysik“, wonach biologische Phänomene mit dem methodischen Handwerk der Physik – Verallgemeinerung und Abstraktion – untersucht werden sollten. Dieses Programm scheiterte aber und diskreditierte die theoretische Biophysik über Jahre, da es nicht gelang, brauchbare Modelle für die biologische Forschung zu entwickeln. McCulloch und Pitts wiederum publizierten 1943 eine bahnbrechende Arbeit, in der sie zu zeigen versuchten, welche Verschaltungen „digital“ operierender Neuronen den grundlegenden logische Operationen – also Denkprozessen – zu Grunde liegen. Im Gegensatz zu den Modellen von Rashevsky lieferte dieser Vorschlag der damals kleinen Gemeinschaft von Forschenden, die Computer entwickeln und sich dafür von der Hirnforschung inspirieren lassen wollte, einen Ansatzpunkt zur Vereinigung der Projekte Hirnforschung (mit dem Ziel, den menschlichen Geist zu verstehen) und Computerwissenschaft (mit dem Ziel, menschliche Denkfähigkeit in Maschinen zu implementieren). Bis in die Gegenwart hinein wird der Artikel von McCulloch und Pitts häufig zitiert, was darauf hinweist, dass er gleichsam als founding paper eines ganzen Wissenschaftsbereichs (Neuroinformatik und die Theorie neuraler Netze) dient.

Berechnung, Kode und Rauschen im Gehirn

Eine weitere Bedingung für die Verknüpfung von Hirnforschung und Computertechnik war die Entwicklung eines technischen Vokabulars, das auf biologische Prozesse angewendet werden konnte. Entscheidend dabei war die Technisierung des Informationsbegriffs, die von Claude Shannon quasi im Alleingang vorbereitet wurde. In einer einzigen Arbeit entwickelte er 1948 die Informationstheorie mit zentralen Begriffen wie „Code“, „Rauschen“ (noise) und „Nachrichtenkanal“. Im gleichen Jahr publizierte Norbert Wiener sein Buch „Cybernetics: or Control and Communication in the Animal and the Machine“ und machte damit die Kybernetik (wörtlich übersetzt die Lehre der Steuerung) zu einer Leitwissenschaft einer ganzen Forschergeneration. Darin findet sich auch die explizite Analogie zwischen Gehirn und Computer. Zwischen fast all diesen Forschern fand ein reger Austausch statt. Eine zentrale Plattform dafür waren die Macy-Konferenzen – eine Serie von Wissenschaftlertreffen in den Jahren 1946 bis 1953, auf denen Fragen von Steuerung, Regulation, Rückkopplung und Information im Hinblick auf ihre Bedeutung für unterschiedliche Wissensgebiete wie Physik, Neurophysiologie, Psychiatrie oder Anthropologie diskutiert wurde.

Die Kybernetik war insbesondere in erkenntnistheoretischer Hinsicht für die Hirnforschung zentral, denn sie postulierte (in den Worten von Wiener): „Als Objekte des wissenschaftlichen Interesses unterscheiden sich Menschen und Maschinen nicht.“ Eine Reihe von Büchern in den 1950er und 1960er Jahre führte diesen Gedanken aus und legte damit fest, was es heisst, das Gehirn zu verstehen: man muss es nachbauen. Die Informationstheorie wiederum legte ein begriffliches Instrumentarium bereits, in welchen Adrians Überlegungen von messages in Sequenzen neuronaler Impulse ihre Fortsetzung fanden: Die Prozesse im Nervensystem wurden als „Kommunikation unter Rauschen“ aufgefasst und es wurde interessant zu fragen, wie hoch die Kapazität des neuronalen „Kanals“ ist und welchen „Code“ das Nervensystem benutzt. Rein theoretische Überlegungen führten dabei zu neuen Ansätzen. So plädierte beispielsweise McCulloch dafür, dass die präzise zeitliche Anordnung von Nervenimpulsen (temporal coding in der modernen Terminologie) für einen Organismus bedeutsam sei, weil dadurch die Kapazität des neuronalen Kanals erhöht werde und Organismen im Verlauf der Evolution diese Kapazität zu maximieren versuchten.

Wachsende Skepsis

Trotz aller offensichtlichen Zusammenhänge sollte man nicht übersehen, dass der Zusammenhang zwischen Computerentwicklung und Hirnforschung bereits in den 1940ern von einigen Protagonisten reservierter betrachtet wurde. Während McCulloch mehrfach betonte, dass Erkenntnisse der (kybernetisch und informationstheoretisch unterlegten) Hirnforschung für den Bau von Computern zentral seien, war der Mathematiker John von Neumann skeptischer. Bereits auf den Macy Konferenzen kritisierte er die unscharfe Verwendung des Begriffs „Code“ und bezweifelte, dass Neuronen als „elementarer Bauteil“ des Gehirns gelten können, zumal Neuronen sehr komplexe Einheiten seien. Andererseits bezog er sich in seinen Überlegungen für den Bau von Computern explizit auf das Nervensystem, beispielsweise in seinem 1945 geschriebenen Entwurf über die Konstruktion des EDVAC-Computers (EDVAC steht für electronic discrete variabe automatic computer). Das Nervensystem war für ihn deshalb so interessant, weil er hier eine Lösung für das Problem der Fehleranfälligkeit von Computerbauteilen sah. Danach waren Neuronen komplexe, aber eben doch potentiell unzuverlässige Bestandteile des Gehirns. Dennoch schaffte es das System, diese Fehlerhaftigkeit zu kompensieren. Diese Form von Analogie zwischen Gehirn und Computer war für von Neumann der Anlass, eine Theorie zu entwickeln, wie aus unzuverlässigen Komponenten zuverlässige Systeme gebaut werden können. An diesem Punkt war die Gehirn-Computer-Analogie besonders fruchtbar – allerdings eher für die Technik als für die Hirnforschung.

In der Biologie hingegen wuchs im Verlauf der 1960er Jahre die Skepsis hinsichtlich der Brauchbarkeit der Analogie und insbesondere der Nützlichkeit des begrifflichen Vokabulars von Informationstheorie und Kybernetik. Man begann die Analogie als viel zu starke Vereinfachung des Problems aufzufassen. Die Suche nach einem „Code“ für das Nervensystem endete nicht in einem einheitlichen Konzept, sondern in einer Vielzahl von Kandidaten: Eine Konferenz im Jahr 1968 listete nicht weniger als 43 solcher möglicher „Codes“ auf. Die Anwendbarkeit des Begriffs „Rauschen“ wiederum wurde entweder kaum definiert oder stiess auf grundlegende Skepsis. Einige stellten sogar die Hypothese auf, dass noise im Gehirn eine noch nicht näher bekannte funktionelle Rolle habe und demnach das exakte Gegenteil von Rauschen im kommunikationstechnischen Sinne bedeute. Shannons rein syntaktischer Informationsbegriff schliesslich erschien unvereinbar mit den semantischen Aspekten biologischer Information, zumal Organismen mit ihren Sinnesorganen Eindrücke aufnehmen und verarbeiten, welche für diese bedeutsam sind. Solche Ernüchterungen führten sogar einen Anhänger des informationstheoretisch-kybernetischen Ansatzes wie den Briten Donald Mac Kay zu dem Eingeständnis, dass sich die Hoffnungen, die in die Anwendung der Informationstheorie gesteckt worden seien, nicht erfüllt hätten.

So erweist sich die Bedeutung der Gehirn-Computer-Analogie nach 1945 für die Hirnforschung als zwiespältig: Zweifellos inspirierte sie ein technisches Ideal, wonach neurophysiologische Erkenntnisse für die Entwicklung von Technologie bedeutsam seien. Sie schuf damit eine wichtige Grundlage zur Entwicklung der Bionik, ein in den 1960er Jahren geprägter Begriff im Umfeld von Heinz von Foerster – ebenfalls ein Veteran der Macy Konferenzen. Darüber hinaus aber liess sie eine Generation von Hirnforschern neuronale Kanalkapazitäten berechnen und nach neuronalen Codes suchen, ohne damit irgendein biologisches Problem lösen zu können. Begriffe wie „Information“, „Code“ und „Berechnung“ erhielten in der Folge lediglich eine metaphorische Bedeutung. Erst in jüngster Zeit entwickelt sich in den Neurowissenschaften das Bedürfnis nach einem schärfer definierten Gebrauch dieser Begriffe.

Die Notwendigkeit einer solchen begrifflichen Schärfung ergab sich als Konsequenz der Versuche, neuartige Sensoren und neuronal inspirierte Rechnersysteme zu entwickeln. Ein Überblick über die derzeit laufenden Entwicklungen sprengt den Rahmen dieses Artikels. Aktuelle Beispiele wären die am Zürcher Institut für Neuroinformatik betriebene Entwicklung einer biomorphen elektronischen Cochlea oder verschiedene in Europa und den USA betriebene Projekte, die nach einem Brain-Computer-Interface (BCI) suchen. Hinweise für das zunehmende Interesse an Neurotechnologie geben auch Forschungsprojekte der amerikanischen Defense Advanced Research Projects Agency (DARPA) in diesem Bereich– beispielsweise Projekte mit den fast schon verführerischen Titeln „Biologically-Inspired Cognitive Architectures“ und „Human-Assisted Neural Devices“. Diese (erneute) Verknüpfung neurowissenschaftlich inspirierter Technologie mit militärischer Forschung dürfte gewichtige ethische Fragen aufwerfen, welche die gesellschaftliche Diskussion einer technisch orientierten Hirnforschung mitprägen werden.

Textversion für blinde und sehbehinderte Personen © 2024 goleon* websolutions gmbh