Textversion für blinde und sehbehinderte Personen sitemap
Home Brainform Textraum Hochzeit Arbeit Forschung Spielverlag encyclog

Der gebaute Mensch – Welche philosophischen Probleme stellt die Robotik?

Nicht nur der Fortschritt in den Biowissenschaften akzentuiert die Frage nach dem menschlichen Selbst. Die Robotik hat in den vergangenen Jahren erstaunliche Fortschritte gemacht. Roboter entwickeln sich zum Instrument der Wissensgewinnung. Selbst die Vorstellung, dass Roboter Partner der menschlichen Lebenswelt werden, ist keine reine Science Fiction mehr. Technik-Visionäre glauben gar an eine weitgehende Verschmelzung von Mensch und Maschine.

Auf den ersten Blick könnte man die mit der Robotik verbundenen philosophischen Probleme schnell abtun: Ein Roboter ist lediglich ein Spezialfall einer Maschine oder eines Automaten. Unter Maschine verstehen wir ein Artefakt, das unter Energieumwandlung mindestens eine zielgerichtete Tätigkeit vollbringen kann. Im Sinne der EU-Maschinen-Richtlinie gilt als Maschine eine für eine bestimmte Anwendung miteinander verbundene Gesamtheit von beweglichen Teilen oder Vorrichtungen. Ein Roboter ist eine Maschine, die Informationen aus der Umwelt mittels Sensoren aufnimmt und über spezielle Einrichtungen – den Aktoren – auf die Umwelt einwirkt. Der Roboter tut das, was ihm die Konstrukteure implizit, durch die Art und Weise der Konstruktion, oder explizit, durch ein Programm, gegeben haben – so die klassische Vorstellung eines Roboters. Somit sollten nicht die Roboter, sondern deren Konstrukteure ins philosophische Blickfeld geraten. Doch so einfach ist die Sache nicht.

Tatsächlich lassen sich eine Reihe verschiedener Problemfelder identifizieren, welche auch philosophisch bedenkenswert sind: So zeigt zum Ersten ein Blick auf die Geschichte der Robotik – die wissenschaftliche Disziplin, welche sich mit dem systematischen Aufbau, der Programmierung und der Anwendung intelligenter Roboter beschäftigt – eine stete Erweiterung des Einsatzgebietes von Robotern und damit eine voraus¬sehbare, verstärkte Interaktion zwischen Mensch und Robotern. Zweitens wird der Roboter zum Instrument der Wissensgewinnung über lebende Systeme – gewissermassen zum materialisierten Modellsystem des Lebens. Drittens laufen Entwicklungen in Richtung Maschinenautonomie, welche beispielsweise die Frage der Verantwortung für „Handlungen“ von Robotern und anderen technischen Systemen neu stellt. Viertens schliesslich ist mit der Idee des Roboters eine spezifische Weltsicht verbunden, welche ihrerseits eine philosophische Tradition hat und die Frage des Wesens und der Bestimmung des Menschen akzentuiert stellt.

Die Entwicklung des Roboters

Beschäftigen wir uns zuerst mit der Geschichte des Roboters: Historisch taucht das Wort „Roboter“ erstmals im vom tschechischen Autor Karel Čapek geschriebenen und 1921 uraufgeführten Theaterstück „Rossums universelle Roboter“ auf. Es basiert auf dem slawischen Wortstamm „robota“ und bedeutet Fronarbeit. Roboter waren also ursprünglich als Technik-Sklaven des Menschen gedacht. Konstruiert wurden eigentliche Roboter aber erst in der zweiten Hälfte des 20. Jahrhunderts, wenngleich gewisse einfache Automaten bereits im 18. Jahrhundert auf Interesse stiessen und insbesondere in gehobenen Kreisen der Unterhaltung dienten. Man kann drei Roboter-Generationen unterscheiden:

  • Programmierbare Manipulatoren gibt es seit den 50er Jahren. Es handelt sich um Systeme mit geringer Rechenleistung, die nur feste Haltepunkte anfahren konnten und kaum sensorische Fähigkeiten hatten. Klassische Industrieroboter sind solche programmierbaren Manipulatoren.

  • Adaptive Roboter wurden ab den 70er Jahren gebaut. Sie verfügten über Kameras, so dass eine senso-motorische Kopplung möglich war und ihre Umwelt „unordentlicher“ sein durfte. Das Programmierobjekt war der Roboter selbst (implizite Programmierung) und nicht der zu manipulierende Gegenstand.

  • Ab den 80er Jahren wurden autonome Roboter gebaut. Sie zeichnen sich aus durch hohe Rechenleistung, durch aufgabenorientierte Programmierung und durch die Erfüllung gewisser Postulate der Maschinenautonomie, worauf wir noch zurückkommen werden.

Nicht ganz in dieses Schema passt die Entwicklung von Robotern, welche einfach programmiert sind, senso-motorische Fähigkeiten haben und gewisse Aufgaben erfüllen können, ohne dass diese Systeme ein internes Modell des Aktionsraums haben. Ein frühes Beispiel ist die „Machina speculatrix“ von W. Grey Walther, welche bereits Ende der 40er Jahre entwickelt wurden. Das Prinzip, Roboter aus kleinen, einfachen Regeln gehorchenden und mit senso-motorischen Fähigkeiten ausgestatteten Subsystemen aufzubauen, gewinnt heute zunehmend an Bedeutung. Japanische Forscher entwickeln derzeit Robotsysteme bestehend aus homogenen Modulen, jedes versehen mit einem Mikroprozessor und senso-motorischen Fähigkeiten, welche sich selbstständig strukturieren können. Derartige Systeme können auch eine Form der Selbstreparatur umsetzen, indem fehlerhafte Module in der Struktur erkannt und ausgestossen werden. Selbstreparatur ist eine wichtige Eigenschaft, die bereits der Computerpionier John von Neumann als zentral für den Bau von „biologienahen Systemen“ erkannt hat, die sich letztlich auch selbst reproduzieren können.

Nebst der historisch geprägten Einteilung von bisher drei Roboter-Generationen, lassen sich Roboter auch bezüglich ihres Einsatzgebietes klassifizieren. Man unterscheidet Industrie-, Service- und Personal-Roboter. Erstere kommen in der industriellen Fertigung zum Einsatz und bilden auch heute noch den Grossteil der Roboter-Population. Service-Roboter finden heute vermehrt Anwendung bei Reinigungsaufgaben, als Erntehilfen, Kanalreiniger oder auch im Katastrophendienst. Derzeit werden auch militärische Anwendungen entwickelt, so das kürzlich durch die US Air Force getestete Robot-Kampfflugzeug X-45A, wenngleich von der Existenz eigentlicher „Kampfroboter“ noch nichts bekannt ist. Personal-Roboter schliesslich dienen der direkten Interaktion mit dem Menschen und können Einsatz finden bei Telepräsenz-Anwendungen, der Krankenpflege oder auch als Spielzeug. Marktreife Systeme sind aber noch selten (z.B. der Sony-Hund Aibo).

Aufschlussreich sind die Prinzipien, an welchen sich die moderne Robotik beim Bau von Robotern orientiert. So sollen moderne Roboter insbesondere folgendes können:

  • Sensorischer Input und motorischer Output sollen direkt gekoppelt sein: Mindestens Teilaspekte des Verhaltens des Roboters erfolgt demnach nicht über einen Soll-Ist-Vergleich mit sensorischem Input und einem internen Welt-Modell, sondern direkt über eine Kopplung von Sensoren und Aktoren, vergleichbar etwa mit einem Reflex.

  • Das Verhalten des Roboters soll nicht aus einer zentralen Steuerungseinheit resultieren, sondern vielmehr das Ergebnis einer Abstimmung unter verschiedenen, teilautonomen Subsystemen sein. Diese Abstimmung soll eine Form der Selbstorganisation sein.

  • Handeln des Roboters in seiner Welt soll ihm ermöglichen, gewisse Kenntnisse von dieser Welt zu erlangen. Die Art und Weise des Lernens soll im Fall humanoider Roboter durch die Nachbildung der strukturellen Randbedingungen des menschlichen Körpers beeinflusst werden.

  • Ein Roboter soll ein Interface entwickeln, das es ihm erlaubt, auf vielfältige Weise mit einem menschlichen Partner zu kommunizieren. Nebst Sprache beinhaltet dies beispielsweise eine Gestik und eine Mimik.

  • Der Roboter soll in der Lage sein, eigenständig zu einem Körpermodell zu gelangen. So soll der Roboter beispielsweise in der Lage sein, mittels Selbstberührung und Beobachtung „eigene“ von „fremden“ Teilen, welche manipuliert werden sollen, zu unterscheiden.

Dieser kurze Überblick macht vor allem eins deutlich: Roboter sollen mehr sein als blosse, für ganz bestimmte Zwecke gebaute Maschinen. Man will in diesen technischen Systeme Aspekte integrieren, deren Begrifflichkeit man bisher nur von biologischen Systemen kennt, wie Reflexe, Lernen, Körper und Sprache. Sie werden damit ein Modellsystem des Lebens und erhalten eine gewisse Form von Autonomie. Der Robotiker Rodney Brooks prophezeit, dass Menschen keine Probleme haben werden, in einem Roboter ein „Gegenüber“ zu erkennen. Dies ist eine Folge ihres Designs, da sie für Menschen intuitiv verständliche Signale aussenden können. Ist dieses Design gepaart mit einem Verhalten, dem wir einen Sinn abgewinnen können, so ist psychologisch durchaus verständlich, dass eine gewisse Form einer „Beziehung“ entstehen kann. Andererseits wissen wir auch, dass diese Körper einem industriellen Fertigungsprozess entstammen und damit eine sehr verschiedene Ontogenese hinter sich haben als natürliche Körper. Dies wirkt quasi auf der Kontra-Seite, was unser psychologisches Verhältnis zu künstlichen Körpern bestimmt. Diesbezüglich sind Änderungen wohl erst dann zu erwarten, wenn die Automaten selbst eine Form der Selbstreparatur und -reproduktion kennen.

Roboter als Instrument der Wissensgewinnung

Bereits seit Jahrzehnten diskutieren Philosophen wie Technik-Visionäre Postulate der künstlichen Intelligenz (KI) Forschung. Innerhalb der KI entwickelte sich die Vorstellung des Computers als Leitbild für den menschlichen Geist. Man ging von der Vermutung aus, dass jedem intelligenten Verhalten ein „General Problem Solver“ zu Grunde liegt, den es zu ermitteln und zu konstruieren galt. Die Ergebnisse dieses Ansatzes sind heute ernüchternd. Einer der Haupteinwände gegen diese Form der Erfassung menschlicher Intelligenz lautete, Intelligenz und Kognition könne nicht unabhängig vom Körper (des Menschen) untersucht werden. Die "Körperlosigkeit" der KI sei eines ihrer wesentlichen Hindernisse für eine adäquate Erfassung der menschlichen Intelligenz, wie unter anderem der Philosoph Hubert Dreyfus festhielt.

Als Antwort auf diese Kritik entwickelte sich in den 80er Jahren die „embodied cognitive science“, wonach Intelligenz und Kognition vielmehr unter Berücksichtigung folgender Prinzipien untersucht werden sollte:

  • Kognition ist sozial und findet in einem von Menschen gestalteten Umgebung und innerhalb einer menschlichen Gemeinschaft statt

  • Sie ist verkörpert, d.h. die materiellen Aspekte der Körper der Intelligenzträger sind sowohl in praktischer wie theoretischer Hinsicht relevant.

  • Die physikalische Randbedingungen sind von entscheidender Bedeutung, denn das System operiert nicht auf einer abstrakten Beschreibungsebene, sondern reagiert mit seinen Sensoren auf das Hier und Jetzt.

Mit der Beachtung der Verkörperung und der Situiertheit bei der Analyse von Intelligenz und Kognition gewinnt der Roboter automatisch eine wichtige Bedeutung bei der Herstellung „künstlicher Intelligenz“. Der belgische Forscher Luc Steels beispielsweise baut Robotsysteme, die durch Interaktion eine einfache Form von Sprache entwickeln sollen. Er erhofft sich dadurch Erkenntnisse, welche für die Linguistik von Bedeutung sind. Der Einsatz von Robotern gewinnt in den Neurowissenschaften generell an Bedeutung, um Hypothesen über senso-motorische Steuerungen von Bewegung und Verhalten zu prüfen. Es ist eben gerade das Körperhafte solcher Roboter, welche Wissenschaftler diese Form der Modellbildung gegenüber klassischen Computersimulationen mittels Software-Agenten bevorzugen lässt.

Aus diesem Grund werden auch humanoide Roboter gebaut, also Systeme, die mindestens Teilaspekte des menschlichen Körpers bezüglich Form und Funktion realisieren. Bekannte Beispiele sind der Roboterkopf Kismet des Massachusetts Institute of Technology und der Honda-Roboter Asimo. Humanoide Roboter haben demnach ein mit menschlichen Körpern oder Körperteilen vergleichbares Aussehen – also beispielsweise zwei optische Sensoren („Augen“), die sich in einer Ebene befinden, um räumliches Sehen zu ermöglichen, zwei „Arme“ mit vergleichbaren Freiheitsgraden bezüglich Bewegung wie der Mensch (Dimensionen, Anzahl Gelenke etc.), oder zwei „Beine", welche Fortbewegung im Sinn von Gehen oder Laufen erlauben. Robotiker wie der Amerikaner Rodney Brooks halten fest, dass humanoide Roboter einem mit dem menschlichen Verhaltensrepertoire vergleichbares Verhalten aufweisen sollten.

Die experimentelle Robotik verfolgt demnach den Leitspruch des Philosophen Giambattista Vico „verum et factum convertuntur“ – wir verstehen das, was wir bauen können. Für den Philosophen wird dieses Motiv insbesondere dann interessant, wenn das Bewusstsein Gegenstand einer konstruktiv inspirierten Analyse werden soll – wenn also „künstliches Bewusstsein“ geschaffen werden soll. Hier gelangt man in ein schon ausgiebig diskutiertes philosophisches Problemfeld, angefangen mit der Bestimmung des Begriffs „Bewusstsein“ und daran anknüpfend die Festlegung eines Tests, womit man „Fremdbewusstsein“ also solches erkennen könnte. Der bekannteste dieser Tests ist sicher der so genannte Turing Test, vorgeschlagen vom britischen Mathematiker Alan Turing: Demnach sollte man einem (technischen) System dann Fremdbewusstsein zugestehen, wenn man dieses in einem (schriftlich) stattfindenden Kommunikationsakt nicht von einem Menschen unterscheiden könnte. Ob dies ein angemessener Test ist, wird heutzutage von verschiedener Seite bestritten - bestanden hat den Turing Test jedenfalls bis heute kein technisches System.

Der amerikanische Philosoph Daniel Dennett hält fest, dass ein technisches System eine Repräsentation innerer Zustände derart erhalten und dem Menschen darüber berichten könnten, dass der Konstrukteur Wissen über das System bekommt, das er sonst nicht oder nur sehr schwer erhalten könnte. Damit hätte das System einen erkenntnistheoretisch interessanten Schritt vollbracht – es könnte eigenständiges Wissen gewinnen und weitergeben. Einige Fragen der Erkenntnistheorie könnten damit experimentell zugänglich werden – nicht im Sinn, dass sie empirisch beantwortbar würden. Doch man könnte eine Aussage darüber machen, welchen Komplexitätsgrad ein System haben muss, damit es eine Form von Wissen generieren kann. Im Sinn der embodied cognitive science werde es wohl Roboter sein, welche die „körperlichen“ Voraussetzungen haben, um dereinst eine solche Form der inneren Repräsentation zu haben.

Bereits früh haben Philosophen auch auf die moralischen Aspekte hingewiesen, welche sich beim Bau solcher Systeme stellen. Der amerikanische Philosoph Hilary Putnam spekulierte bereits 1964 über den Zeitpunkt, wann Roboter „Bürgerrechte“ einfordern könnten. Der Philosoph Dieter Birnbacher plädiert dafür, auf die Konstruktion bewusstseinsfähiger Maschinen zu verzichten, solange wir uns nicht über die physischen Grundlagen phänomenalen Bewusstseins im Klaren sind, da man „künstliches Leiden“ schaffen könnte.

Maschinenautonomie und die Frage der Verantwortung

Die Rede von Maschinenbewusstsein ist derzeit sicherlich noch Spekulation. Weit aktueller ist hingegen die Frage, welche Form von Autonomie technische Systeme – nicht nur Roboter – haben bzw. ihnen zugestanden werden soll. Autonome Robotsysteme sind für eine Reihe von Anwendungen interessant. Beispielsweise in der Raumfahrt werden Robotsysteme für die Marserkundung entwickelt, bei welchen nicht jeder Schritt von einer zentralen Kommandoeinheit (auf der Erde) gesteuert werden muss, da eine solche Steuerung eine Latenzzeit von mehreren Minuten hat. Maschinenautonomie wird gemeinhin mit folgenden vier Aspekten umschrieben:

  • Selbstständige Entscheidungsfähigkeit basierend auf sensorischem Input, Planen, Schlussfolgern und Abschätzen von Konsequenzen. Die Randbedingungen der Unabhängigkeit sind gegeben durch Vorgaben und Regelungen.

  • Selbstständige Durchführung aufgabenorientierter Zielvorgaben durch die Kombination von Planungs- und Überwachungsschritten.

  • Selbstständiges Lernen und Beseitigen von Fehlern.

  • Fähigkeit zur Kooperation mit anderen Maschinen

Zwei wesentliche Aspekte der menschlichen Autonomie – die Fähigkeit zu vernünftigen Handeln durch Einsicht und die Fähigkeit, eine freies Verhältnis zu einer Sache einnehmen zu können – fallen nicht unter diesen Begriff. Dafür würde wohl eine Form von „Maschinenbewusstsein“ nötig werden.

Dennoch ist Maschinenautonomie kein zu unterschätzendes Problem: Zum einen stellt sich die Frage nach der Kommunikation mit solchen Maschinen. Auch wenn lediglich die Postulate der Maschinenautonomie realisiert werden, so sind diese Systeme in der Lage, Lösungen für bestimmte Aufgaben zu erreichen, welche die Konstrukteure nicht erwartet haben. Gewisse Modellsysteme realisieren bereits diese Fähigkeit. Demnach wird man sich der Frage stellen müssen, mittels welcher Form der Kommunikation man wird feststellen können, ob das System auf einem richtigen oder falschen Weg ist, bzw. wann man das System abstellen soll, bevor es was falsches macht.

Dieser Aspekt wird insbesondere dann ein Problem, wenn Entscheidungen in komplexen Produktionsabläufen, bei Handelssystemen auf den Finanzmärkten oder auch bei medizinisch eingesetzten Expertensystemen (teilweise) automatisiert werden. Wie das Schweizer Institut für Technikfolgenabschätzung in einem kürzlich publizierten Bericht festhält, wird sich die Gesellschaft die Frage stellen müssen, welche Entscheidungen automatisiert werden sollen und welche nicht und was dies für die Zuschreibung von Verantwortlichkeit konkret bedeutet. Damit verlassen wir zwar das Feld der Robotik. Für die Philosophie und insbesondere für die Ethik stellt sich aber hier ein wichtiges Problem.

Die Maschinenmetapher und der Cyborg

Der spekulativste und dennoch aber heiss diskutierte vierte philosophisch relevante Aspekt betrifft die Frage nach dem Weltbild hinter der Robotik. Hier gelangen wir in ein altes philosophisches Diskussionsfeld, nämlich der Frage, inwiefern sich der Mensch selbst oder andere Lebewesen überhaupt in einem prinzipiellen Sinn von einem Roboter bzw. von einer Maschine unterscheiden. Bereits René Descartes sah ja im biologischen Körper sowohl von Menschen wie Tieren lediglich eine Form von Maschine, wobei aber der Mensch durch den Einbezug der „res cogitans“ weiterhin eine Sonderstellung einnahm. Julie Offray de La Mettrie verfasste mit seinem 1748 erschienenen Traktat „L'Homme Machine“ eine Schrift, welche diese Ansicht auf die Spitze trieb. Man muss sich vom plakativen Titel nicht zu einer simplen Interpretation der Schrift hinreissen lassen. La Mettrie formulierte im Text eine wissenschaftliche Herangehensweise an den Menschen, welche in naturwissenschaftlichen Kreisen heute auf breite Zustimmung stösst – insbesondere wenn er sie auf geistige Phänomene bezieht. Er plädiert für das Primat einer empirischen Herangehensweise an den Menschen, wendet sich gegen die Vorstellung einer unüberwindbaren Kluft zwischen Tier und Mensch und sieht geistige Phänomene als Resultat des „organischen Baus“ des Körpers, insbesondere des Gehirns. Menschen sind also insofern Maschinen, als dass keine „zusätzliche Substanz“ wie Descartes „res cogitans“ wirkt.

Robotiker wie Rodney Brooks stehen in der Tradition von La Mettrie, wenn sie den Menschen insofern als Maschine bezeichnen, als dass die Interaktion strukturierter Materie dessen Natur zu Grunde liegt und dass die verschiedenen naturwissenschaftlichen Disziplinen zumindest prinzipiell die „Maschine Mensch“ erklären könnten.

Die Maschinen-Metapher hat im Verlauf des 19. Jahrhunderts eine wichtige Ausprägung entstanden. Der Historiker Anson Rabinbach beschrieb die im Zuge der sich ausbreitenden industriellen Revolution aufkommende Tendenz, menschliche Körper nach denselben Produktivitätskriterien zu behandeln wie die industrielle Maschine. Energie, Kraft und an erster Stelle Arbeit sollten als zentrale Begriffe auf Maschinen und menschliche Körper gleichermassen angewendet werden. In mechanischer und energetischer Sicht glichen sich Maschine und Mensch an, der Körper wurde zu einer Art intelligenter Dampfmaschine, ein „Motor Mensch“. Im Zug dieses Bilds entwickelten sich die Arbeitswissenschaften, welche sich zunächst der Frage widmeten, wie man die vorhandene Energie des „Motors Mensch“ am effizientesten nutzen konnte.

Ist der Mensch ontologisch von einer technischen Entität nicht mehr zu unterscheiden, stellt sich die Frage nach der „Verschmelzung“ von Mensch und Maschine. Als Vision für diese Verschmelzung wurde 1960 von Manfred Clynes und Nathan Kline der Begriff „Cyborg“ kreiert. Motivierend für die Einführung des Cyborgs war die Frage, in welche Richtung sich künftig die bemannte Raumfahrt entwickeln könnte. Bis zum heutigen Tag muss ja eine gewaltige Apparatur zur Schaffung einer für Menschen lebenswerten Umgebung in den Raum geschossen werden. Clynes und Kline schlugen stattdessen vor, lieber den Menschen mittels Technologie derart zu verändern, dass diese direkt für die Erhaltung des Körpers sorgt. Grundidee des Cyborgs ist also die Entwicklung von technischen Ersatzsystemen für Teile des menschlichen Körpers mit dem Ziel, dessen Einsatzmöglichkeit zu erweitern. Insofern macht ein „reparativer“ Eingriff in den Körper – also etwa die Implantierung eines Herzschrittmachers - den Menschen noch nicht zum Cyborg. Der Schritt zum Cyborg wird erst dann vollzogen, wenn beispielsweise Sinnesprothesen implantiert werden sollten, welche den Menschen mit zusätzlichen Sinnen ausstatten würden. Die in einem Cyborg integrierten technischen Systeme sollen zudem mit dem Metabolismus des Körpers wechselwirken. Offenbar sind bei einem Cyborg die Stoff- und Informationsflüsse zwischen den „natürlichen“ und „künstlichen“ Körperteilen vergleichbar mit jenen zwischen den natürlichen Körperteilen untereinander. Der Begriff Cyborg beschreibt demnach das Resultat einer stattgefundenen Verschmelzung von Mensch und Maschine im strikten Sinn. Gewisse Entwicklungen gehen in diese Richtung, denkt man etwa an die Neuroprothetik. Vom eigentlichen Cyborg ist man jedoch aber noch weit entfernt.

Doch gibt es überhaupt einen relevanten Unterschied zwischen Menschen und (den künftig zu erwartenden) Robotern? Heute jedenfalls sind diese Unterschiede augenscheinlich: Kernelemente des menschlichen Geisteslebens wie Wünsche, Ziele, Sinngebung und dergleichen werden auch von den komplexesten Robotsystemen nicht realisiert. Dies hängt auch damit zusammen, dass keine Einigkeit darüber herrscht, wie man das Vorhandensein solcher Elemente überhaupt diagnostizieren will. Eine allgemein akzeptierte „Theory of Mind“ ist ja selbst beim Menschen derzeit nicht vorhanden.

Ein anderer Aspekt, der sich als relevanter Unterschied herausstellen könnte, ist die Naturgeschichtlichkeit biologischer Körper. Diese Körper sind das Produkt einer biologischen Evolution. Sie waren einer ständigen Interaktion mit der Aussenwelt ausgesetzt. In natürlichen Körpern sind gewissermassen wesentliche Interaktions-Informationen über einen langen Zeitraum kristallisiert. Künstliche Körper weisen diese evolutionäre Geschichte nicht auf. Diese Unterschiede zeigen sich auch in der Reproduktion von künstlichen Körpern. Jetzt und bis auf weiteres werden künstliche Körper nach einem Plan gebaut. Auch für natürliche Körper gibt es eine Art „Plan“, doch deren Wachstum funktioniert anders. In einem wachsenden Organismus triggern die Gene Signal-Kaskaden, wobei eine ungleich grössere Anzahl der lokal vorhandenen Materie für den Prozess selbst sinnhaft ist. Die Materie natürlicher Körper ist um viele Grössenordnungen mehr strukturiert als jene von Robotern. Insofern kann demnach selbst ein Materialist die Ansicht haben, dass Menschen und Roboter jetzt und bis auf weiteres sehr unterschiedlich sind.

Literatur zum Thema:

  • Rodney A. Brooks. Menschmaschinen. Wie uns die Zukunftstechnologien neu erschaffen. Campus Verlag, 2002.
  • Albert Kündig. A Basis for IT-Assessment. Bericht des Schweizerischen Zentrums für Technikfolgen-Abschätzung. Herunterladbar unter: www.ta-swiss.ch
  • Ray Kurzweil. Homo s@piens. Leben im 21. Jahrhundert. Was bleibt vom Menschen? Econ Verlag 2001.
  • Thomas Metzinger (Hrsg.). Bewusstsein. Schöningh Verlag 1996. Enthält Aufsätze zum Thema „künstliches Bewusstsein“.
  • Julien Offray de La Mettrie, Der Mensch als Maschine, LSR-Verlag, 1988.

Websites:

  • Der Roboter Asimo: http://world.honda.com/robot/
  • Die Roboter des MIT: http://www.ai.mit.edu/projects/humanoid-robotics-group/
  • Die „Machina speculatrix“: http://www.epub.org.br/cm/n09/historia/documentos_i.htm
Textversion für blinde und sehbehinderte Personen © 2024 goleon* websolutions gmbh