Textversion für blinde und sehbehinderte Personen sitemap
Home Brainform Textraum Hochzeit Arbeit Forschung Spielverlag encyclog

Rechnen am Limit

Der Fortschritt in den Computerwissenschaften ist rasant und nähert sich dem Abgrund des physikalisch Verbotenen. Gibt es Brücken?

„Ich kenne eigentlich nur drei absolute Grenzen für den Bau von Computern: die Grösse der Atome, die Lichtgeschwindigkeit und den Energieverbrauch pro Zeiteinheit.“ Der geniale Physiker Richard P. Feynman formulierte einst diese unumstösslichen Einschränkungen für jeden Chipdesigner. Diese sonnen sich jetzt noch in der unglaublich scheinenden Kette von Erfolgsmeldungen der vergangenen Jahrzehnte, die ihren Niederschlag im „Moorschen Ge-setz“ finden: Alle 18 Monate verdoppelt sich die Anzahl Schalteinheiten auf einem Chip. Die Computer werden scheinbar unaufhaltsam kleiner, billiger, besser und transformieren die weltweite Wirtschaft in einem bisher nie dagewesenen Tempo.

Zeit für eine Verschnaufpause. Zu einer solchen lud das diesjährige Latsis-Symposium am vergangenen Montag und Dienstag in der ETH Zürich ein. Unter dem Titel „Computer and Information Technology“ diskutierten Fachleute aus verschiedenen Bereichen künftige Per-spektiven der Informationstechnologie und deren Auswirkung auf die Gesellschaft (vgl. mit Kasten). Nebst den Problemen, welche die jetzige Technik stellt – so etwa die Datensicher-heit – fokussierte das Symposium das Potenzial künftiger Technologien wie beispielsweise Quantencomputer.

Klar wurde dabei, dass es ein grenzenloses Fortschreiten der technischen Innovation nicht geben wird. „Berechnung ist ein physikalischer Prozess und unterliegt damit physikalischen Einschränkungen“, machte Henk van Houten von den Philips Research Laboratories in Eindhofen klar. Alle noch so schönen Cyberwelten haben ihr Fundament in schnöden Elekt-ronenbewegungen, die Raum, Zeit und Energie brauchen. Sie unterliegen letztlich vier grundlegenden Theorien: Der Thermodynamik, der Elektrodynamik, der Quantentheorie und der Informationstheorie. Diese Basis setzt auch die Grenzen des Machbaren.

2014 ist Schluss

„Die Gültigkeit des Moorschen Gesetzes endet im Jahr 2014“, sagte van Houten am Sympo-sium voraus. Eine schlechte Prognose für die Softwarehäuser, deren Produkte immer mehr Computerkraft brauchen. Windows 2020 dürfte wohl – falls es Microsoft dann noch gibt – nie funktionieren... Doch warum ist das so?

Digitales Rechnen setzt beispielsweise voraus, dass zwei genau unterscheidbare physikali-sche Zustände – sie repräsentieren die binären Ziffern 0 und 1 – durch den Rechenapparat erzeugt und gespeichert werden können. Dazu braucht es Energie. Der Rechenapparat selbst hat aber immer eine gewisse Temperatur und damit ebenfalls eine gewisse Energie. Die Thermodynamik sagt nun voraus, dass der Rechner eine minimale Energie braucht, um unterscheidbare Zustände zu schaffen, sonst werden diese von der Wärmeenergie überla-gert.

Die Quantentheorie wiederum setzt eine Grenze bezüglich Grösse: Bald einmal werden die Chipdesigner in die seltsame Quantenwelt eintreten und auf Effekte stossen, die in der klas-sischen Physik nicht vorgesehen sind: Der sogenannte Tunneleffekt erlaubt es beispielswei-se Elektronen, vorgesehene Leiterbahnen zu verlassen, sollten die Bauteile die Grössenord-nung von zehn Nanometern unterschreiten. Rechnen im herkömmlichen Sinn wird dann nicht mehr möglich.

Vom Quantencomputer...

Noch sind diese Grenzen nicht das Hauptproblem der Computerwissenschaftler. Die Ingeni-eure fragen sich aber schon seit einiger Zeit, wie man die Tabus der Theorie umgehen könn-te: Quantencomputer beispielsweise sollen die Effekte, welche von der Quantentheorie vor-ausgesagt werden, für das Erreichen ganz neuer Rechenleistungen nutzen.

So toll das Wort auch klingt, qualitativ Neues können auch diese derzeit noch hypothetischen Maschinen nicht erreichen. „Ein Quantencomputer kann nur das tun, was auch ein klassi-scher Computer im Prinzip tun kann“, erklärte dazu Gianni Blatter, theoretischer Physiker an der ETH Zürich. Dazu kommen neuartige Limitationen: Quantenmechanisch repräsentierte Information – mittels sogenannter Qubits – lässt sich beispielsweise nicht kopieren.

Uninteressant sind Quantencomputer deshalb aber nicht. Vor sechs Jahren wies Peter W. Shor von den Bell-Laboratorien (Algorithms for Quantum Computation, IEEE 1994) nach, dass Quantencomputer grosse Zahlen sehr schnell faktorisieren können. Diese auf den ers-ten Blick unscheinbare Fähigkeit ist das nackte Grauen für alle Kryptografen: Die gesamte moderne Verschlüsselungstechnik – zentral für Anwendungen wie e-Banking oder digitale Unterschriften – beruht darauf, dass Computer eben gerade grosse Mühe haben, die Teiler grosser Zahlen zu finden. „So gesehen wäre es wohl besser, wenn man einen Quantencom-puter nicht bauen würde“, meint denn auch Blatter. Von seinem Tun lässt er sich aber nicht abbringen, denn Quantencomputer dürften andere ganz spezifische Anwendungen wie das Durchsuchen grosser Datenmengen um Grössenordnungen schneller bewältigen als alle bisherigen Rechner. Wann ein funktionsfähiger Quantencomputer existieren wird, ist für Blat-ter aber unklar: „In zehn Jahren, in hundert Jahren oder vielleicht gar nie.“

Es sind aber nicht nur die rein fundamentalen Grenzen, welche nach der Prognose von van Houten zum Kollaps des Moorschen Gesetzes im Jahr 2014 führen werden: Schon allein die Kosten für die Herstellung immer kleinerer Chips werden bald einmal jedes vernünftige Mass sprengen. Die bisher verwendeten Herstellungstechniken würden ebenfalls bald an ihre Grenzen stossen und die Ingenieure hätten immer grössere Mühe, mit der Komplexität des Designs der Chips adäquat umzugehen, fasst van Houten die Schwierigkeiten zusammen.

...zum Neurocomputer

Vielleicht werden aber dereinst ganz andere Konzepte die Computerwelt revolutionieren. Die Inspiration dafür holt sich Rodney James Douglas vom Zürcher Institut für Neuroinformatik aus der Biologie: „Eine Biene hat 100'000 Neuronen. Mit dieser doch eher kleinen Zahl an Bauteilen löst dieses Insekt erstaunliche rechnerische Probleme wie die Orientierung im Raum.“ Biologische Gehirne scheinen tatsächlich auf eine ganz andere Art als herkömmliche Computer zu rechnen. Douglas: „Nervenzellen vereinen analoge wie digitale Prinzipien. Die Frage ist, wie sie das tun.“ Sollte es gelingen, die der biologischen Berechnung zugrunde liegenden Prinzipien zu erkennen und technisch zu reproduzieren, dürfte das Moorsche ge-setz in einer neuen Form reaktiviert werden. Werden diese Neurocomputer dereinst einmal zu denken beginnen und uns etwas zu sagen haben?


Der Hirn-Chip

„Computers on the brain“ prangte auf der Titelseite der jüngsten Ausgabe des Wissen-schaftsmagazins „Nature“. Neuroinformatikern des gleichnamigen Instituts in Zürich ist ein weiterer Schritt hin zum Neurocomputer gelungen. Sie bauten einem Chip und holten sich für dessen Verschaltung die Inspiration aus dem Gehirn. Der Chip reproduziert das Verhalten von Nervenzellen (Neuronen), namentlich deren Fähigkeit, Signale auszuwählen und ver-stärken zu können. Dieses Verhalten ist beispielsweise zentral für die Fähigkeit des mensch-lichen Gehirns, aus einer Vielzahl von optischer Information die Wichtigste auszuwählen und die Augen auf dieses Ziel hin zu richten. Der Chip kann als erstes simples „Silizium-Modell“ für Aufmerksamkeit gelten.

Das Interessante an diesem Chip ist die Vereinigung analoger und digitaler Prinzipien: Zur Verstärkung von Signalen wurden bisher üblicherweise analoge Schaltkreise verwendet, währendem die Auswahl eines Signals aus einer ganzen Anzahl konkurrenzierender Signale mittels digitaler Prozesse geschah. Der neue Schaltkreis kann nun – wie dies natürliche Neu-ronen auch können – beides zusammen. Die Architektur des Chips kann man sich wie folgt vorstellen: Ein Ring von 16 rückgekoppelten „Silizium-Neuronen“ umschliesst ein 17. „Silizi-um-Neuron“. Letzteres wirkt hemmend auf die Verschaltung der anderen Neuronen. Der Chip orientiert sich damit an den gängigen Theorien der lokalen Verschaltung von Nerven-zellen in der Grosshirnrinde.

Bereits 1996 haben Forscher in Computersimulationen herausgefunden, dass ein Netzwerk von derart geschalteten künstlichen Neuronen das Verhalten der Natürlichen reproduzieren können. Der „Hirn-Chip“ ist nun die erste praktische Realisierung dieser theoretischen Vorar-beit. Vom neurobiologischen Standpunkt aus betrachtet sind zwar einige der Voraussetzun-gen, die in das Chip-Design hineingeflossen sind, zu weit von der Realität entfernt. Doch die Neuroinformatiker hoffen, mit Hilfe des Chips Einblick in die erstaunlichen Rechenkapazitä-ten des Nervensystems zu gewinnen. Die Kommentatoren der Studie im „Nature“ meinten jedenfalls: „Nun wissen wir genug um Schaltkreise bauen zu können, die rechnen werden wie biologische Systeme“.

Textversion für blinde und sehbehinderte Personen © 2024 goleon* websolutions gmbh