Textversion für blinde und sehbehinderte Personen sitemap
Home Textraum Hochzeit Arbeit Forschung encyclog

07. bis 11. November 2012: Association for Moral Education Annual Meeting

Das diesjährige AME-Meeting schloss auch einen pre-conference Workshop zur Moral Foundation Theory von Jonathan Haidt ein, was hier eingeschlossen ist. Am Workshop sprachen diverse Autoren einer bald erscheinenden Special Issue des Journal of Moral Education zu kritischen Punkten von Haidts Theorie aus Sicht insbesondere der Moralbildung. Bert Musschenga sprach zu zwei Punkten: zum social intuitionist model und zur These das Moral gebunden ist an eine bestimmte biologische Basis – insbesondere die (mittlerweile sechs) moral foundations care, fairness, loyalty, authority, sanctity und liberty. All das ist gebunden an eine spezifische Sichtweise der Moral als etwas, das dazu da ist, soziale Probleme zu lösen (und die Moral hat deshalb evolutionär überlebt, weil sie das kann). Bert sieht folgende Probleme: Erstens muss festgehalten werden, dass diese scheinbar rein deskriptive Herangehensweise normative Konsequenzen hat. Zweitens stellt sich die Frage ob dieses Modell den moralischen Pluralismus in vielen modernen Gesellschaften adäquat zu erfassen vermag. Man muss dazu auch sagen, dass moralischer Pluralismus nicht notwendigerweise einher geht mit moralischen Problemen – und gewisse moralische Probleme sind nicht eine Folge von moralischem Pluralismus. Drittens stellt sich die Frage, ob Haids Fokus auf Politik wirklich der korrekte Kontext ist. Haidt meint, dass politische Polarisierung letztlich Ausdruck grundlegender moralischer Differenzen ist – doch das ist zu kurz gegriffen, es fehlt ihm letztlich an einer politischen Theorie, welche die beobachteten Polarisierungen durchaus auch anders erklären kann. So dürfte die Polarisierung in den USA eher eine Folge sein des hier herrschenden Zwei-Parteien-Systems in einer medial dominierten Öffentlichkeit. Die Moralisierung dieses Konflikts könnte es de fakto schwerer machen, ihn zu lösen. In der Diskussion dann noch ein weiterer wichtiger Punkt: Muss man den wirklich Kompromisse zu allen moralischen Fragen finden? Schliesslich sind gewisse moralische Überzeugungen auch identitätsstiftend.

Jeremy Frimer diskutierte die Bedeutung von Haidts Theorie für Moralerziehung, er zeigt aber letztlich Ergebnisse einer Studie, die damit eher wenig zu tun hat. Es geht ihm um die Einschätzung von Rollenmodellen, berühmten Leuten, die repräsentativ für jeweils eine der moral foundations sein sollen. Die Studie wirft einige methodische Fragen auf (dann im Paper nachlesen). Lawrence Blum diskutiert dann insbesondere die „liberal-conservative“ Unterscheidung von Haidt, er scheint sich als „liberal“ quasi angegriffen zu fühlen, dass seine „moral foundation“ kleiner sein soll als jene von Konservativen. Er sieht einen qualitativen Unterschied zwischen care und fairness einerseits, authority und loyalty andererseits, da letztere gebunden sind an die Frage, wen man als Autorität warum akzeptieren sollte und zu wem man loyal sein sollte. Ich denke aber nicht, dass hier ein qualitativer Unterschied besteht, denn analoge Fragen stellen sich auch bei care und fairness (man denke nur an die verschiedenen Theorien von Gerechtigkeit), eher ein gradueller. Dennoch dürfte die „Kontext-Stabilität“ von care und fairness grösser sein als jene von authority und loyalty (das müsste man messen).

Jennifer Cole Wright versucht einen andere Weg, um zwischen den verschiedenen Foundations eine Hierarchie zu etablieren. Sie orientiert sich an zwei grundlegenden, aber konfligierenden menschlichen Bedürfnissen: den Wunsch nach Stabilität, Struktur, Tradition, Sicherheit; und den Wunsch nach Neuem, Wandel, Wachstum, Risiko. Sie unterscheidet dann einen Kern (fairness und care) und einen Kontext (hier dann die anderen foundations), die gewissermassen die soziale Struktur abbilden, in der sich ein Individuum bewegt. Sie führt einige interessante Studien dazu auf (dann im Paper nachlesen). Was ich mich frage: wo ist eigentlich honesty in diesen Foundations (und generosity). Helen Haste führt ein mit einem kurzen Blick auf die drei zentralen ethischen Traditionen: Intuitionismus (Hume), Rationalismus (Kant), Tugenden (Aristoteles) – man kann sich fragen, ob das nicht einfach die unterschiedlichen Zeitskalen abbildet, um die es bei Moral geht. Sie macht einige interessanten Punkte: der Intuitions-Begriff ist meist unklar und problematisch, einige evolutionäre Argumente dürften auf schwachen Beinen sein (z.B. sind die heutigen Hunter-Gatherer nicht evolutionäre Überbleibsel und demnach nicht notwendigerweise eine Informationsquelle über unsere Vergangenheit). Haidts wichtiger Beitrag war die Betonung des Zusammenhangs zwischen Ethik und Affekten/Intuitionen. Doch Affekte/Emotionen sind kulturell geladen. Problematisch sei auch die links-rechts-Unterscheidung in der Politik, insbesondere wenn sie auf Selbstzuschreibung beruht (Politologen würden das bestreiten). Doch folgende Unterscheidung scheint eine sehr alte kulturelle Geschichte zu haben (mindestens bis in die Antike zurückverfolgbar): A) Menschen sind eher schlecht und man muss sie kontrollieren, damit sie keine Dummheiten anstellen. b) Menschen sind eher gut und man kann sie durch geeignete Erziehung noch besser machen.

Sehr interessant war dann der Vortrag von Douglas Fry (Anthropologe). Er untersucht die Frage, welche der moral foundations von Haidt Sinn machen im Licht der Erkenntnisse über nomadic hunter-gatherer, dem Lebensstil, der wohl etwa 99% der menschlichen Naturgeschichte bestimmte. Er sieht Support von nur drei: sicher Care und Fairness, vermutlich auch Loyalty. Authority hingegen gar nicht (eher das Gegenteil, equality/egalitarity), sanctity ist unklar. Er hält die heutigen nomadic hunter gatherer (von denen es ja kaum mehr welche gibt, d.h. man muss sich stark auf frühere Zeugnisse abstützen, was seinerseits Probleme stellt) für das wohl beste Modell um zu erfahren, wie die sozialen Strukturen in der meisten Zeit der menschlichen Entwicklung wohl gewesen sind. Wie in seinem Buch „The Human Potential for Peace“ ausgeführt, ist die Bedeutung der Aggression deutlich überschätzt worden, meistens ist diese sehr beschränkt und nur inter-subjekt-Gewalt, keine eigentlichen Kriege. Er und andere haben ein „Standard Cross-Cultural Sample“ von solchen Gesellschaften erstellt (alles, was man weiss): Median-Gruppengrösse war 26, die Gruppenmitgliedschaft war flexibel, die soziale Struktur hochgradig egalitär, Reziprozität, Kooperation und Fürsorge waren hoch ausgeprägt (da überlebensnotwendig, alleine überlebte kaum jemand), hochgradig mobil (im Schnitt 8.5 camps pro Jahr), kaum Besitz (war ja auch hinderlich), vorab Sammeln, und wurde gejagt, wird Fleisch praktisch immer geteilt (macht Sinn, denn individueller Jagderfolg ist selten und Kühlschränke gab es nicht). Der Zugang zu wichtigen Ressourcen war immer auf Reziprozität angelegt (interessant: man musste aber auch immer fragen). Konflikte werden meistens so gelöst, indem man Aggression abbaut oder vermeidet, selbst im Fall von Mord (man verlässt z.B. temporär die Gruppe). Wichtig ist die Unterscheidung zwischen einfachen und komplexen hunter-gatherer – letztere kannten Sesshaftigkeit, Besitz, Hierarchie – und waren auch deutlich gewaltsamer (inkl. organisierte Gewalt, Kriege) – komplexe Gesellschaften gab es wohl aber erst seit 10-15‘000 Jahren (dürfte auch eine Funktion von Umwelteinflüssen gewesen sein: „sweet spots“ in der Umwelt haben dazu verleitet, sich dort niederzulassen und das als Eigentum anzusehen). Viele frühere Gewalt-Studien hatten einen sehr unklaren Begriff von „Gewalt“ oder „Krieg“, was mit ein Grund für die Überschätzung der Gewalt in frühen menschlichen Gesellschaften ist. Wichtig ist auch das Element der sozialen Kontrolle in den einfachen Gesellschaften, das als letzte Eskalationsstufe durchaus auch die Exekution oder den Ausschluss (= ebenfalls ein Todesurteil) des Mitglieds beinhalten kann – aber erst, nachdem alle anderen Massnahmen nichts gebracht haben. Grundphilosophie war: 1) Versuche aus jedem, einen guten Menschen zu machen. 2) Wenn einer sich nicht gut verhält, korrigiere sein Verhalten. 3) Funktioniert 2) nach mehrmaligen Versuchen nicht, eliminiere die Person. Lese dann das 2013 erscheinende Buch: War, Peace, and Human Nature.

Bruce Maxwell schloss den Tag mit einem eher theoretischen Vortrag zur Frage, ob die Entwicklung von Kohlberg zu Haidt mit dem Modell von Kuhn erhellt werden kann. Ein wichtiger Kritikpunkt: Haidt hat Kohlberg in wichtigen Punkten nicht verstanden bzw. missverstanden.

Der Donnerstag beginnt mit einem Vortrag von Don Reed, der zum Verhältnis von Moral und Civility (Höflichkeit) am Beispiel des Nahostkonfliktes spricht. Er meint, civility ist notwendig aber nicht hinreichend für Moral. Höflichkeit ist (praktisch gesehen) das Fundament, um moralisches Disagreement überhaupt besprechen zu können. Ist alles nicht wirklich neu. Darcia Narvaez spricht dann in ihrem (ersten) Vortrag zu ihrem Triune-Ethics-Modell und dem Zusammenhang zur Moralentwicklung. Ihre (starke) These ist, dass die heutige Art der Kinderaufziehung gewissermassen das „falsche“ Moralsystem fördert. Im Vortrag wirkt das alles zu plakativ, muss besser abgestützt sein bzw. präsentiert werden. Das Seminar mit Dawn E. Schrader war interessant, zumal ihre Studie aufzeigt (ein experimentelles Setting, in dem gewissermassen Personen den Zugang zu privaten Informationen an andere Teilnehmer des Experiments verkaufen konnten), wie viel Leute bereit sind, über sich anderen zu erzählen. Einzig Informationen über die eigene sexuelle Gesundheit will man nicht anderen mitteilen.

Am Freitag sprach dann Jonathan Haidt – er ist ein ausgezeichneter Redner (und Politik interessiert ihn offenbar immer mehr, siehe dazu www.civilpolitics.org). Kohlberg war für ihn (und viele andere) ein Übervater, er glaubt an die „big ideas“ in Moralpsychologie und sieht sich in der Bewegung der „affektiven Revolution“, die seit dein 1980ern laufen soll. Seine drei bekannten Thesen sind: Intuition zuerst, Kognition danach (social intuist model), Moral ist mehr als Fairness und Care (seine Foundations, wohl eine Gegenpunkt zu Turiel), und „morality binds and blinds“. Derzeit ist er bei sechs Foundations angelangt, er denkt, es könnten auch noch mehr sein. Ein Paper, das genauer begründet, wie er zu seinen Foundations kommt, ist derzeit under review. Der Unterschied zwischen liberals und conservatives sieht er auch nicht mehr so drastisch, eher als ein unterschiedliches Ranking (liberals: care, fairness, freedom, und evt. noch was; conservatives: freedom, fairness, care, und dann sicher noch die anderen). Die normative Frage inwieweit denn die einzelnen Foundations wirklich Begründungskraft bei konkreten Problemen haben, bleibt aber offen (und auch seine Fragen, die er stellt, gehen darauf nicht ein) – und das war dann auch eine der Hauptpunkte in der Diskussion: was wenn die Foundations im Konflikt zueinander stehen? Wie wählt man aus? Er nutzt nun auch eine „elektromagnetische Analogie“ um (moralische) Polarisation zu illustrieren (bin aber unsicher, wie weit diese trägt, denn nicht jede Differenzierung ist auch eine Polarisierung – das wäre eine mögliche Weiterentwicklung unseres Kohärenzmasses, Unterscheidung Pluralismus vs. Polarisierung; prüfe auch www.polarizedamerica.com). Sicher richtig ist aber: open first the hearts, then open the minds.

Am Samstag besuchte ich dann unter anderem das “Moral Motivation” Symposium. Das Modell von Rest spielt immer noch eine wichtige Rolle, Stephen J. Thoma weist auf die besondere Rolle der Komponente „Motivation“ hin (was wir ja mit moral intelligence auch machen). Interessant waren auch die Ausführungen von Tobias Krettenauer zur Entwicklung des moral self (mehr dazu recherchieren).
 


13. bis 14. Oktober 2012: Society for Neuroscience Meeting

Habe das alles nun auch einmal mitgemacht – aber wie erwartet: eine Konferenz mit >30’000 Teilnehmern ist einfach zu gross. Unsere H-Thema Poster waren leider im hintersten Ecken – aber einige kamen dennoch (inkl. ein Journalist der Sonntagszeitung). Ich habe folgende Talks besucht: Neuroethik-Talk von Barbara J. Sahakian (thematisch nichts neues, aber als Übersicht sehr gut): Derzeit sollen 16-20% von Studierenden Ritalin zur Leistungssteigerung nehmen – und es finden sich durchaus Verbesserungen, auch z.B. der Motivation. Auch ergeben sich Hinweise, dass Modafinil besser sein könnte als klassische Stimulanzien wie z.B. Koffein, die etwa bei langen Präsenzzeiten von Chirurgen zum Einsatz kommen (Tremor!).

Sehr interessant war der Vortrag von Steven E. Hyman zum sich wandelnden „Ökosystem“ für Neurowissenschaften (vorab basierend auf Entwicklungen in den USA): Der Goodwill gegenüber Neuroscience nimmt in der Politik ab. Die USA stehen wegen dem Defizit vor drastischen Budgetkürzungen in der Forschung, insbesondere wenn das Militär davon ausgenommen wird. Man muss sich aber im Klaren sein, dass der private Sektor die Grundlagenforschung nicht übernehmen wird – im Gegenteil: die Pharma steigt ebenfalls zunehmend aus der Neuroforschung aus: Das Gehirn ist einfach zu komplex und verspricht keine gewinnbringenden Medikamente (nicht deshalb, weil die Krankheiten nicht da wären, sondern weil man keine Lösung für diese findet). Man findet auch keine funktionierenden Targets, hat keine geeigneten Tiermodelle und keine biologischen Marker für psychiatrische Krankheiten. Das liegt auch an der Neurowissenschaft selbst: zu viele Resultate können nicht reproduziert werden, es braucht bessere Ausbildung, mehr data sharing, und man muss negative Ergebnisse auch publizieren. Auch ist unklar, ob die modernen Philantrophen in die Lücke springen können: diese haben ein Milestone-Forschungsverständnis und wollen den overhead nicht zahlen. Die Neurowissenschaft wird sich schliesslich dem Trend zu big science nicht verschliessen können. Das braucht dann Anpassungen: credit sharing, man braucht gewissermassen log-files von Projekten und Papers. Und man sollte Daten für Zweitanalysen verfügbar machen – ein gutes Trainingsobjekt für junge Leute.

Ich habe auch den STN-Workshop besucht. Die interessantesten Sachen: Die funktionale Gliederung des STN ist gar nicht so klar – insbesondere lässt sie sich anatomisch nicht reproduzieren. Die Literatur ist hier sehr unsicher – zwischen 0 bis 4 Komponenten (es gibt hier ein Review in Frontiers of Neuroanatomy 2012) – unabhängig von Spezies und Methode! Eindeutig dürfte nur ein Eisen-Gradient sein. Funktionell dürfte die Gliederung aber mehr gesichert sein, dazu ein Clustering-Ansatz präsentiert von Chris Lambert.

Interessant war schliesslich auch das Public Forum “The Developing Brain: How Research and Advocacy is Shaping Public Policy”: Vincent Feliti spricht über seine grosse Längsschnittstudie, die eindeutig zeigt, welche langfristigen medizinische und psychische Probleme traumatische Kindheitserfahrungen (Gewalt, Missbrauch, Vernachlässigung: Adverse Childhood Experiences, ACE) mit sich bringen. Der ACE-Score korreliert mit Krankheiten, sozialen Problemen, Sucht. Christine Heim präsentiert Studien die den Zusammenhang zwischen Depression und ACE zeigen. Es gibt hierzu auch biologische Marker wie z.B. Hippocampus-Grösse; und auch eine genetische Vulnerabilität. Man sollte bei der Prävention auf jene fokussieren, welche diese Traumata verursachen (nicht unbedingt Kinder wegnehmen, aber Eltern unterstützen). Rob Grunewald erläutert eine ökonomische Sicht: Es ist klar, dass Investitionen zur Verhinderung von ACE sich lohnen. Dazu gibt es bereits eine Reihe von Studien (nachfragen). Pat Levitt schliesslich spricht von seinen Erfahrungen als political advocat in dieser Sache: Das Thema kommt an, unabhängig vom politischen Spektrum, auch wenn die Motive anders sind. Z.B. US-Generäle sind besorgt, dass derzeit offenbar nur 25% der Jugendlichen überhaupt wehrtauglich sind.
 


11. bis 12. Oktober 2012: International Neuroethics Society

Am ersten Tag spricht Nita Farahany zu ihrer Arbeit in der Presidential Commission for the Study of Bioethical Issues – eine Art Äquivalent der NEK in der Schweiz (allerdings keine feste Institution, sie wird von jedem Präsidenten erneut einberufen und reflektiert wohl auch dessen politische Ansichten zumindest teilweise – auch wenn Farahany das bestritten hat). Ich habe nur die zweite Hälfte des Vortrags gehört, der Überblick war breit, aber nicht sehr tief. Danach folgte die Poster-Session.

Am nächsten Tag fanden die meisten Veranstaltungen statt. Das erste Panel betraf die aktuelle Forschung zum Bereich Drogensucht. Charles O‘Brien hält den Missbrauch von Substanzen für das Gesundheitsproblem Nr. 1 (vorab natürlich Tabak und Alkohol). Sein ethisches Dilemma: er hat eine funktionierende Therapie, doch die Leute müssen diese über längere Zeit durchmachen. Darf man die Leute vor die Wahl stellen: Therapie oder Gefängnis? Hinweis, dass der Begriff Sucht in den neuen DSM-5-Richtlinien endlich sauber definiert wird und insbesondere vom Begriff der Abhängigkeit getrennt wird (denn der Körper reagiert praktisch auf alle Medikamente in irgend einer Form mit Abhängigkeit): Merkmal der Sucht sind die verhaltensspezifischen Aspekte, so dass sich das Leben nur noch um die Substanz dreht. Auch ist klar: viele versuchen Drogen, werden aber nicht süchtig – es dürfte eine genetische Vulnerabilität zur Suchtanfälligkeit geben. Das daraus resultierende soziale Problem ist gross: 2.3 Mio. Menschen sind in den USA in Gefängnissen, viele davon wegen Drogensucht. Er spricht von seinen Therapien, wobei man Medikamente (Agonisten, Antagonisten) gibt, welche die Wirkungsweise der Drogen an den Rezeptoren blockieren – man erhält Abhängigkeit, aber keine Sucht mehr. Grössere Studien zeigen Schwierigkeiten, weil die Leute irgendwann die Medikamente absetzen und dann oft wieder in die Sucht schlittern. Man sollte deshalb neue Ansätze machen, z.B. Wirkstoffdepots in den Körper implantieren. Interessant ist auch: er kann keine Placebo-Studien mit Gefangenen machen, weil eine Zuweisung durch den Gefängniswärter als unethisch angesehen wird. Es läuft derzeit eine Studie mit 240 Probanden, 80-90% bleiben im Programm. Rita Goldstein spricht zur Abgabe von Stimulanzien an Personen, die von Stimulanzien süchtig sind. Zahlen von 2010: 9% der US-Bevölkerung sagt, sie nehmen Drogen (Stimulanzien?), was eher eine Unterschätzung sein dürfte, 3% sind süchtig. Sie unterscheidet einen moralischen Suchtbegriff von einem medizinischen – ersterer ist oft das Problem, weil er zu einem Verbot der Substanzen führt (was letztlich nicht durchsetzbar ist) und medizinische Abgabe von Stimulanzien in gewissen Fällen verhindert. Aber die Forschung zeigt klar Effekte von solchen Substanzen auf das Gehirn: die Zahl der Dopaminrezeptoren nimmt ab – und deshalb brauchen die Leute die Drogen, um überhaupt funktionieren zu können: Ihr Ziel: Alternative Stimulanzia zu entwickeln, die keinen „boost“ bzw. kein „high“ auslösen. Ihre Forschungen zeigen, dass das funktionieren kann, und es finden sich auch positive Effekte mit Blick auf den „moralischen Suchtbegriff“, z.B. verbesserte Motivation.

Die zweite Session findet statt zum Thema Altering Personhood. Peter Rabins spricht zum Thema cognitive enhancement. Er definiert personale Identität als eine kohärente Selbstnarration, die von der Person selbst erzeugt wird, akkurat ist, überdauert, nach aussen kommuniziert wird und emotional fundiert ist. Das stellt dann die Fragen: Kann sich personale Identität ändern (sicher, z.B. Gehirnverletzungen), kann man sie verlieren (sicher, z.B. frontotemporale Demenz), kann man sie selbst ändern (wohl auch, z.B. Psychotherapie, religiöse Bekehrung)? Agnieszka Jaworska spricht dann zu Ihrem Autonomiebegriff (den ich schon kenne, habe ja ihren Beitrag übersetzt). Sie sieht zwei Schienen der Autonomie: Klassisch (Dworkin) ist die erste Schiene: Fähigkeit, das Leben als kohärentes Ganzes zu sehen führt zur Fähigkeit, wertzuschätzen. Die zweite Schiene ist dann die Fähigkeit zur kognitiven Planung. In der klassischen Sicht verliert eine demenzkranke Person beide Fähigkeiten. Ihre Sicht dagegen: Erste Schiene: die Fähigkeit zur care führt zur Fähigkeit wertzuschätzen – und erstere bleibt die Demenz länger erhalten. Für die Fähigkeit zur Planung braucht es Assistenz. So bleibt Autonomie auch im Fall der Demenz länger erhalten als man denkt. Peter Reiner spricht dann zu Studien, in denen er die öffentliche Meinung zu Enhancement untersucht (seine Methode ist eine Variante des faktoriellen Survey). Es geht in seiner Studie um die Akzeptanz von bewusst und unbewusst wirkenden Entscheidungshilfen für gesunde Ernährung: Wer Hilfe will, akzeptiert beides, wer nicht, nur ersteres.

Danach die Session mit den Kurzvorträgen, wo ich auch dabei war. Interessant war eine Studie dazu, ob Relativierungen oder Widerlegungen von Studien, die grossen Nachhall in der Presse finden, später auch noch in der Presse auftauchen. Was ich erwartet hatte: Nein.

Interessant war dann auch noch das „brain in dishes“ Panel. Die klassische Frage: ab welcher Stufe der Komplexität des Nervensystems hat man ein ethisches Problem, wenn diese in vitro untersucht werden? Interessante Bemerkung zur ethischen Debatte der Stammzell-Transplantation im Fall von Parkinson (1990er-Jahre – hatte das ja einmal untersucht): In den USA war vorab die Quelle (Föten) das ethische Problem, in Europa aber die Frage, wie viel man implantieren darf, ohne das Gehirn des Patienten zu verändern.
 


30. Mai bis 1. Juni 2012: Complexity and Human Experience

Da ich diese Notizen mit dreimonatiger Verspätung schreibe, hier nur kurze Anmerkungen.

Patrick Grim diskutiert die Dynamik von Meinungen und die These, dass sich die öffentliche Meinung in den USA polarisiert habe. Er entwickelt dazu ein Modell, dass diese Polarisierung zeigen soll (die ersten Versuche scheitern). Dimensionen von Polarisierung: Distanz zwischen Ansichten, Verschiedenheit der Ansichten, Grösse der Gruppen, die diese Ansichten haben, Homogenität dieser Gruppen.

Aaron Bramson wie immer mit einem sehr interessanten methodischen Thema: Methoden für Hypergraphen / k-partite Graphen. Hypergraphen sind Graphen mit verschiedenen Arten von Verbindungen zwischen Knoten (z.B. solche die mehr als zwei Knoten verbinden), k-partite Graphen sind solche mit verschiedenen Klassen von Knoten (dazu gab es in der ersten Hälfte des 20. Jahrhunderts viel Literatur in der Mathematik). Viele Standard-Ansätze der Netzwerk-Theorie versagen hier. Man kann bis zu einem gewissen Grad Hypergraphen in k-partite Graphen umwandeln. Spannend sind dann die k-partiten Hypergraphen, die an sich am ehesten geeignet sind, realweltliche Netze abzubilden – hier einen brauchbaren methodischen Apparat zu haben, wird sehr wichtig werden!

Rody Smead spricht zu evolving games. Er hat dazu publiziert (dort nachsehen). Danach folgen die Beiträge der Teilnehmer der letztjährigen School. Graham Sack bringt ein update seiner Forschung eines „generativen plots“, d.h. eines Modells, dass die Statistik des Auftretens von literarischen Figuren eines Romans reproduziert (und damit auch Literatur-Klassen abbildet) – interessant! Jeremy Throne bringt sein Modell des Buch-Produktionszyklus.

Es folgt die Gruppe zum Thema „Research and Teaching“. Stephen Crowley simuliert interdisziplinäre Forschung (inspiriert von Zollman), Carlo Fabricatore und Ximena Lopez zeigen Resultate eines Forschungsprojekts, wie Studenten eines game-Studiengangs diesen erlebten (hier fehlen bereits basale statistische Tests), Robert Reynolds präsentiert seinen „kulturellen Algorithmus (auch das nicht wirklich überzeugend).

Am nächsten Tag der Vortrag des IT Security Experten Josh Corman zu seinen „chaotic actors“ im Netz – er bringt eine Art Typologie von Internet-Nutzern mit bösen Absichten, kein klarer und überzeugender talk. Liz Johnson spricht über die US-Wissenschaftspolitik (definiert „complexity“ scwammig) – kein wirklich brauchbares Modell. Jerome Sibayan präsentiert eine ausgefeilte Analyse der Netzwerk-Struktur des ZK der kommunistischen Partei Chinas seit ihrem bestehen – ein interessanter Ausgangspunkt, um das mit der jeweiligen politischen Entwicklung zu verknüpfen (eine Datenbank, deren genauere Analyse sich lohnen könnte). Dann Patrick Grim mit einem erneut interessanten Vortrag zur Verbreitung von Information in Abhängigkeit von ihrem Nutzwert und dem Verbreitungs-Netzwerk – Papers lesen, das ist interessant. Ebenfalls spannend ist das Modell von Daniel Singer, der peer disagreement modelliert: Klares Modell, klare Aussage. Auch dazu gibt es ein Paper. Marshall Abrams bringt dann sein (komplexes) Modell zum Zusammenhang zwischen Kohärenz von Beliefs und kulturellem Wandel (danach mein Vortrag).

Rogier de Lange modelliert erneut Kuhns wissenschaftliche Revolution. Das Modell mag etwas zu einfach sein für die Analogien, die er dann macht, aber die Sache ist sauber, durchdacht und bringt Resultate. Das Modell von Nicolas Payette zur evolving science ist da schon unklarer. Scott Weingart schliesslich präsentiert sein „republic of letters“ Projekt und diskutiert vorab die Grenzen des Modellierungs-Ansatzes für seine Disziplin.

Am letzten Tag habe ich die ersten Vorträge nicht besucht bzw. aufgeschrieben. Johannes Eichstaedt bringt mit seinem Vortrag zum Projekt einer „computational psychology“ einen der besten Vorträge der Konferenz. Ein hoch interessantes data mining projekt: aus Facebook-Texten Aussagen zur Psychologie der Nutzer zu machen. Unbedingt im Auge behalten. Russell Gronnering spricht zu den Schwierigkeiten der Digitalisierung medizinischer Information (electronical medical records) – ebenfalls sehr interessant.

 


16. bis 19. Mai 2012: 12th Experimental Chaos and Complexity Conference, Ann Arbor

Ich habe etwa die Hälfte der Sessions besucht, hier eine kurze Zusammenfassung der für mich interessanten Talks. Mittwoch 16. Mai besuchte ich die Social Dynamics & Economics Session. Zuerst sprach Morgen Jensen zu „Emergence and Decline of Scientific Paradigms and Epidemics“. Bereits die Verknüpfung dieser beiden Begriffe zeigt ein Problem: Es geht in seinen Modellen um die Ausbreitung von Ideen generell – die Tatsache, dass der einzelne Agent aufgrund seiner Vorgeschichte nur zu bestimmten Ideen überhaupt eine Affinität entwickeln kann, wird in den Modellen nicht berücksichtigt (könnte übrigens auch bei Epidemien eine Rolle spielen). Ansonsten interessante Modelle (Prüfe: PRL 106, 058701, 2011). Pedro Lind präsentierte ein interessantes minimal agent model um kritische Zustände eines ökonomischen Systems zu modellieren. Modell geht von drei Voraussetzungen auf: division of labor (d.h. agents müssen Güter austauschen), Spezifizität hinsichtlich Konsum (der notwendig ist für Produktion), Endlicher Konsum und Produktion (sinkt Produktion unter einem gewissen Schwellenwert: Konkurs). Das Modell basiert zudem auf dem Mechanismus des preferential attachment. Diverse Anwendungen des Modells zeigt eine inhärente Krisenanfälligkeit (abhängig von der Netzwerk-Topologie) und höhere Wahrscheinlichkeiten von Krisen. Anwendung auf die Idee von Basel III (mehr Eigenkapital der Banken) zeit: Mehr Eigenkapital wird das Systemrisiko wohl nicht vermindern, sondern eher noch erhöhen (Möglicher Mechanismus: Banken müssen sich risikoreicher verhalten, um mit weniger Kapital gleich viel Profit zu erwirtschaften). Sehr interessanter Gedanken. Scott Page spricht dann über „kollektive Intelligenz“. Der crowd error (meist kleiner als der average error) ist im Wesentlichen die Differenz zwischen average error und diversity, d.h. diversity muss gross sein, damit crowd error klein wird. Hinweis auf das PNAS von 2011 von Dirk: Wie Herdeneffekt die wisdom oft he crowd vermindert. Robert Savi präsentiert dann ein ABM, wo die agents nur über die (durch sie veränderte) environment kommunizieren. Noch interessant.

Am Donnerstag besuchte ich Talks von drei Sessions: Neuroscience & Physiology, Data Analysis und Electronics (hier voran Ruedis Talk). In der ersten Session präsentierte Denise Kirschner ihr sehr detailliertes Tuberkulose-Modell – Beispiel einer Modellierung, in der verschiedene Systemebenen/Skalen integriert werden. Wichtige Einsicht einer Sensitivity-Analyse: Die Bedeutung eines Parameters hängt auch vom Zeitpunkt der Simulation ab. Philipp Bittihn präsentierte sein Modell von Herzgewebe im Kontext der Frage, welche minimale Energie nötig ist, um bei chaotischer Herzmuskelbewegung zu defibrillieren (ein wichtiges Thema: Heutige Defibrillatoren brauchen viel Energie: traumatischer Schmerz & mögliche Muskelschäden). Geometrie (curvature) des Gewebes ist zentral für die Frage, wo bei minimaler Energie das elektrische Feld für Re-Synchronisierung sich aufbaut. Sajiya Jalil präsentiert einen central pattern generator für Melibe, eine Art Wasserschnecke, und Ezequiel Arneodo ein physikalisches Modell des Stimmorgans eines Vogels. Beim Data Analysis Block besuchte ich nur zwei Vorträge: Antonio Politi präsentierte seinen Ensemble Approach von Oszillatoren, um Synchronisierung und auch andere, komplexere Muster der Dynamik zu verstehen und auch den Begriff der makroskopischen Stabilität zu schärfen (sehr mathematisch, Laser als Beispiel-System). Steven Schiff sprach über die Beobachtbarkeit biologischer (vorab neuronaler) Netzwerke – siehe dazu sein Buch, das 2012 in der MIT Press erschienen ist. Ruedi Stoop schliesslich präsentiert die Arbeit zu den „shrimps“, einer Struktur im Phasenraum, am Beispiel u.a. der Henon-Map und eines elektronischen Schaltkreises (siehe dazu die Paper auf der Homepage der Stoop Group).

Am Freitag besuchte ich zwei Sessions, erneut eine über Neuroscience und Physiology und eine über Extreme Events. Klaus Lehnertz präsentierte seine Forschungen zu Epilepsie. Hier sollte man sich vom Bild eines „auslösenden Epilepsie-Herdes“ verabschieden, Epilepsie ist eine Krankheit des Netzwerkes. Es scheint, dass dieses bei kranken Personen regelmässiger ist als bei gesunden (zwischen Anfällen), die Stabilität der Synchronisierung scheint aber im Fall eines Anfalls kleiner zu sein (wohl wichtig, um den Anfall beenden zu können). Danach sprach William Stacey über hochfrequente Komponenten epileptischer Anfälle (interessanter wissenschaftshistorischer Hinweis: die Eigenfrequenz der Messgeräte definierte Epilepsie auf phänomenologischer Ebene). Was ihn interessiert: man sollte zwischen der Synchronisierung und dem recruitment von Einheiten, die zum epileptischen Anfall beitragen, unterscheiden. Eine „coherence resonance“ baut diese Einheiten auf, und eine „stochastic resonance“ sorgt dafür, dass der Anfall sich im Netzwerk verbreitet (Paper lesen). Epaminondas Rosa braut (wie andere auch schon) eine elektronisches Neuron. Den ersten Estreme Events-Talk habe ich verpasst. Elisabeth Bradley untersucht Computer (also deren Performance, Prozessor-Nutzung etc.) als dynamische Systeme – sehr interessant. Siehe dazu ihr Paper in Chaos 19, 2009: 033124. Ziel sind real-time Voraussagen z.B. der Prozessor-Nutzung, kann für energiesparende Computer genutzt werden. Pascal Jürgens nutzt Methoden der Netzwerkanalyse und -dynamik, um den Effekt von Ereignissen in Medien wie Twitter oder Online-Peditionsdatenbanken zu untersuchen. Medien scheinen einen Immunisierungs-Effekt zu haben, wenn sie schneller sind als Twitter (was nicht erstaunt). Das funktioniert wohl aber nur, wenn die Medien selbst das Ereignis kreieren.

Am Samstag besuchte ich dann noch die Session über komplexe Netzwerke. Toshiyuki Nakagaki präsentierte seine sehr interessanten Forschungen mit Schleimpilzen, die gewissermassen optimale Netzwerke hinsichtlich Fehlertoleranz und low costs generieren – siehe dazu seine Science Papers. Irene Sendia-Nadal untersuchte die Balance zwischen Segregation und Integration in einem komplexen Netzwerk und hat dafür eine neues Mass eingeführt (Paper prüfen, ist 2010 in PRE erschienen). Mark Newman schliesslich zeigt seine sehr interessanten Algorithmen zur Identifizierung von Communities in Netzwerken (wichtig für uns! Paper prüfen). Idee der Modularität: Es gibt mehr Verbindungen in einer Untergruppe eines Netzwerkes, als man bei zufälliger Verknüpfung vermuten würde. Hochinteressant ist auch die Bemerkung, dass es offenbar Modularitäten in einem Netzwerk geben kann, die prinzipiell nicht entdeckt werden können (doch wenn man sie weiss, ist klar, dass sie ein Modul bilden). Paper auf seiner Homepage prüfen!
 


30. März bis 1. April 2012: The Moral Brain

Eine Konferenz in New York zur Frage, was zehn Jahre „Neurowissenschaft der Moral“ (de fakto ist das Thema natürlich älter) gebracht haben und inwieweit die bislang erzielten Ergeb-nisse die Möglichkeit von moral enhancement eröffnen. Als erster spricht Joshua Greene, der seine dual processing theory des moralischen Entscheidens vorstellt. Im Wesentlichen geht es um die Behauptung, dass „schnelle, intuitive“ Urteile von deontologischer Art sind, während „langsame, deliberative“ Urteile von konsequentialistischer Art sind (er sagt selbst, dass er den Begriff „utilitaristisch“ vorab im Sinn meint, es gehe darum, Güterabwägungen vorzunehmen) – was sagt er eigentlich zur Tatsache, dass im Standard-Trolleydilemma die Antworten „pro Utilitarismus“ ebenfalls schnell sind? Er nennt die Daten, die mit vmPFC-Patienten gewonnen worden sind, als die „stärkste Evidenz“ für die Rolle neuronaler Prozesse im moralischen Entscheiden (und hier dürfte auch ein Teil des Problems sein – siehe unsere Arbeit zur Rezeption der vmPFC-Patienten). Prüfe die Paper Thomas et al. 2010, Ciaramelli et al 2007, Sarlo et al. 2012. Offenbar hat er in der Arbeit Amit & Greene nun auch die Vorstellungen, die seine Dilemmas in den Leuten evozieren, miteinbezogen (nachprüfen!): Leute mit besserem visuellem Vorstellungsvermögen antworten intuitiver. Dann auch eine Bemerkung zu seinen cognitive load studies (siehe auch Paxton et al. 2011: Leute, die reflektierter sind, geben eher utilitaristische Antworten). Mit einem Lügen-Dilemma (wo die Last der Intuition auf Seiten des Utilitarismus ist) ist er auch dem Vorwurf entgegengetreten, das intuitive Framing seiner Experimente würde seine Resultate prägen (Kotau et al. 2011 – alle Referen-zen auf seiner Website nachprüfen). Eine weitere Studie nutzte medizinische Dilemmas (Or-ganverteilung, Quarantäne, teure Operationen): demnach würden Ärzte eher deontologischer, Gesundheitsbeamte eher utilitaristisch antworten (was seiner Hypothese entsprechen würde). Prüfe auch Shentav & Greene, Neuron 2010. Thema seiner neueren Studien sind auch Varian-ten des alten Beispiels von Singer („Ertrinkendes Kind“). Er geht auch kurz auf Kritik ein, die Berker 2009 zu seinen Studien geäussert hat (nachprüfen: Titel: „normative insignificance of neuroscience“) – Berker soll diverse Fehler gemacht haben. Letztlich will er die sein-sollen-Grenze aber nicht verwischen, er versteht seine Forschungen als Beitrag dazu zu verstehen, ob bestimmte moralische Entscheidungen durch Einflussfaktoren dominiert werden, die im mo-ralischen Sinn (erst da kommt das Sollen hinein) keine Rolle spielen sollten.

James Woodward spricht über die Dichotomie zwischen Emotion und Kognition, die mög-licherweise eher eine Art folk psychology ist als eine Unterscheidung, die wirklich hilft zu verstehen, was im Gehirn passiert. Bereits ein genauerer Blick auf die Abgrenzungskriterien (Emotion: evolutionär älter, unflexibel; Kognition; neuer, flexibel) zeigt, dass die Unterschei-dung nicht so klar sein kann (z.B.: Wichtige Rolle der Insula (u.a. weil dort eine bestimmte Art von Neuronen präsent ist) bei Empathie tritt erst beim Menschen auf; man könnte auch auf die kulturelle Formung von emotionalen Reaktionen hinweisen). Er will das Problem eher in Richtung reward processing verstehen, d.h. keine unterschiedlichen Systeme, sondern Emotion und Kognition bezeichnen eher unterschiedliche Formen der Modulation der Prozes-se in einem einzigen System. Kontrolle von Emotion ist zudem keineswegs Hinweis dafür, dass der Prozess „moralischere Ergebnisse“ produziert (Gegenbeispiel: Nazis die ihre emotio-nale Hemmung bei der Tötung ihrer Opfer überwinden mussten, wie historische Quellen be-legen).

Liane Young gibt eine Übersicht über ihre zahlreichen neuen Studien. Thema ist die Unter-scheidung zwischen beabsichtigtem und irrtümlichem moralischen Fehlverhalten und welche Hirnregionen hierbei jeweils eine Rolle spielen (diverse Studien – ihre Website prüfen). Sie findet Unterschiede je nach moralischem domain: In der harm-domain spielt diese Unter-scheidung eine weit grössere Rolle als in der purity domain (z.B. Nahrungsmittel-Tabus), was plausibel ist (wegen der Verbindung von letzterem zu disgust). In neueren Studien untersuchte sie auch die self-other-Unterscheidung (Gweon et al. 2011). Ihre Antwort auf die Frage, wel-chen Einfluss es hat, dass diese Studien vorab mit Undergraduates gemacht werden (deren moral brain evt. noch nicht „mature“ ist): Auch ihre Studien sind in der Mehrzahl mit Leuten um die 20 gemacht – sie kontrollieren aber auf Faktoren wie Alter, Geschlecht und politische Einstellung und finden keine Unterschiede (warum eigentlich nicht bei letzterem – Haidt fin-det diesbezüglich ja Unterschiede).

James Blair spricht über seine Psychopathen-Studien – Psychopathen haben Abnormitäten in drei Bereichen: Unemotionalität, Narzissmus, Impulsivität (Frich & Hare 2001). Er stellt seine Theorie des Integrated Emotional System (Blair 2007) vor, wonach Psychopathen die Fä-higkeit nicht haben, den Schmerz zu fühlen, den sie bei anderen verursachen – und hier ent-sprechend keine Hemmungen entwickeln (siehe auch die Studie von Glenn et al 2009 J Per-sonal Disorders 23(4): 384-398). Es scheint zu sein, dass Psychopathen nicht in allen moral domains (von Haidt) Probleme haben, sondern nur bei Harm und Justice. Präsentation einer interessanten Version des Ultimatum Games: Geber teilt Geld, Nehmer kann einen Teil des Geldes dazu verwenden, dass dem Geber Geld abgezogen wird, wenn die Aufteilung unfair ist (was er auch macht). Studie: Psychopathen zeigen zwar eine Hirnaktivierung, die darauf schliessen lässt, dass sie die Unfairness einer unfairen Verteilung erkennen – sie zeigen aber keine Aktivierung, die auf eine „Bestrafungs-Bereitschaft“ hinweist.

Walther Sinnott-Armstrong plädiert dafür, Moral nicht als ein uniformes Gebiet anzusehen. Ähnlich bei beim Gedächtnis (semantisches/prozedurales; explizites/implizites, prozedurales, Kurzzeit/Langzeit, Gedächtnis für künftige Ereignisse) sollte man auch Moral als etwas anse-hen, das ganz unterschiedliche Phänomene bezeichnet. Keines der Abgrenzungskriterien (In-halt, Funktion, Motivation, Form, Phänomenologie) könne ein einheitliches Kriterium liefern, was „Moral“ ist. Interessante Beobachtung, dass in der Typologie von Haidt z.B. honesty, courage, und modesty fehlen. Auch die „Neurobiologie der Moral“ liefert kein einheitliches Kriterium, weil es kein einheitliches und ausgezeichnetes Moralsystem im Gehirn gebe. All das ist gewiss richtig – doch besteht der Punkt nicht darin, eine gute Theorie zu finden, welche ein überzeugendes Abgrenzungskriterium für „moralisch“ versus „nichtmoralisch“ findet, auch wenn einige Leute de fakto anders klassifizieren? Er braucht ja diese Unterscheidung selbst ja auch ständig.

Der Samstag beginnt mit Paul Bloom, der einen sehr interessanten Vortrag zur Moralität von Kleinkindern gibt (was in den letzten Jahren zunehmend ein Thema geworden ist). Es geht dabei um die Suche der „instinktiven Empathie“ (Adam Smith) – es gibt zudem auch ein Pa-per von Darwin, wo er in „Mind“ diesbezüglich über seinem Sohn berichtet. Bloom versteht unter dem „moral sense“ ein evaluativer Sinn. Er berichtet von raffinierten Experimenten, in denen „agents“ repräsentiert als geometrische Figuren entweder helfen oder nicht helfen – und die Säuglinge, die das beobachten, wählen danach in einem choice paradigm signifikant häufiger die „helfende“ Figur. Das wurde mit diversen anderen experimentellen Paradigmen bestätigt. In Teilungs-Experimenten zeigt sich dann aber auch ein anderes Muster: In ähnli-chen Experimenten, die man auch mit Schimpansen macht, zeigen Kleinkinder kein Wahlver-halten, das Dritten hilft. Konfrontiert mit der Verteilung von cookies 1/1 und 2/3 sowie 1/0 und 2/2 wählen Kleinkinder generell die jeweils erste Variante, d.h. keine Verteilung, die Dritten hilft. D.h. es gibt einen Unterschied zwischen judgments (Wahl von Figuren) und Mo-tiven (Verteilungen): Kinder Erwarten 1/1-Verteilungen, sie wählen aber 2/0-Verteilungen. Ein weiteres Thema war der Zusammenhang disgust-avoidance. Seine Grundidee der Funktion von moral psychology: Aufzeigen, welche Intuitionen wie funktionieren, damit man deren Berücksichtigungswürdigkeit untersuchen kann.

Tamar Gendler spricht über ihre aliefs (als Unterschied zu beliefs) – quasi ihre Interpretation der 2-systems theory, die natürlich philosophisch sehr alt ist (z.B. Aristoteles: reason versus spirit/appetite). Aliefs scheinen so was wie die in Begriffe gefasste emotionale Reaktion auf einen Sachverhalt zu sein, der in Konflikt mit den entsprechenden (propositionalen) beliefs des Sachverhalts sein kann (Beispiel: Stehen auf dem Glasboden im Sears Tower: Obwohl man weiss, dass man nicht runterfallen kann, ist der alief – das Gefühl, dass man runterfallen könnte – dennoch vorhanden. Belief und alief können in Harmonie oder in Konflikt sein – und ersteres strebt man an. Aliefs sind Objekt einer kulturellen Formung, man will (im Sinne Aristoteles‘) die richtige aliefs – Kant hingegen will eher alief-Indifferenz. Insofern ist das von Greene gezeichnete Bild falsch: Aristoteles ist eher der „automatic mode“, während Kant eher der „manual mode“ der moralischen Kamera ist. Bei Greene scheint es eher um die In-halte zu gehen, bei ihr eher um die Prozesse (was sinnvoller ist). Die Frage ist dann aber: gibt es Unterschiede zwischen aliefs hinsichtlich ihrer Kultivierbarkeit. Und welche Varianz hin-sichtlich der Kultivierbarkeit gilt als akzeptabel und welche Abweichung ist eine Pathologie (der Folterer, der seine harm-aliefs überwinde muss). Sie diskutiert dann auch den Unter-schied zwischen tradig trade-offs und taboo trade-offs. In ersteren sieht man es als more blameworthy an, wenn man sich den Entscheid zu einfach macht, bei letzteren ist es umge-kehrt.

Molly Crockett spricht über ihre Forschung zur Modulation von moralischem Verhalten mit-tels chemischen Substanzen, die in das Serotonin-System eingreifen. D.h. wie verändert sich die Variabilität des moralischen Verhaltens, wenn man das System beeinflusst (eine solche ist zu erwarten angesichts der vielfältigen Funktionen von Serotonin). Und man sieht diese Ef-fekte (z.B. PNAS 2010) sowohl hinsichtlich care-based norms und auch hinsichtlich justice-based norms. Mehr Serotonin führt zu einer aversion to harm und zu einer preference for fair-ness. Die Studien sind sicher sehr interessant, doch die moralische Beurteilung der jeweiligen Reaktion wird durch das Experiment gesetzt. Ein zu untersuchender Punkt: Auf die Motive (z.B. revenge) scheint man durch die Aktivierung der entsprechenden Gebiete zu schliessen – ist das statthaft (Papers lesen)?

Matthew Liao spricht zum Thema, ob Intuitionen Heuristiken sind – also Prüfung einer Frage, die sich z.B. bei der Interpretation des dual process models von Greene oder den Thesen von Kahnemann & Tversky bzw. Gigerenzer stellt: wie zuverlässig sind Intuitionen, eignen sie sich als Heuristiken? Er verneint das Verständnis von Intuitionen als Heuristiken, doch der Vortrag ist oft unklar. Einige interessante Punkte: Unterschied zwischen epistemischen und moralischen Intuitionen: erstere haben einen klareren Referenzpunkt mir Bezug auf richtig oder falsch. Intuitionen müssen nicht notwendigerweise schnell verfügbar sein, sie können sich auch beim Nachdenken über ein Problem entwickeln. Sein Begriff einer Intuition wird aber nicht klar. Er will eine Unterscheidung zwischen intuition und reasoning, doch gleichzei-tig verwischt er die Grenze dauernd.

Guy Kahane spricht zur Bedeutung des Wissens darüber, wie das Gehirn in moralische Kog-nition involviert ist, für die Ethik. Zwei grundlegende Positionen: Dieses Wissen spielt für normative Fragen keine Rolle vs. dieses Wissen trägt dazu bei, das moralisch richtige zu iden-tifizieren. Einige mögliche Verbindungspunkte zwischen diesen zwei Polen: Sollen impliziert können. D.h. wenn man herausfinden, dass man bestimmte Formen des Sollens nicht umset-zen kann (aufgrund unserer Psychologie), so wird dieses Sollen unterminiert. Das kann aber nur ein „nicht sollen“ begründen (unter der Voraussetzung, dass man das Messproblem lösen kann: d.h. sichere Aussage darüber gewinnt, welches moralische Sollen aufgrund unserer Psychologie nicht möglich ist). Sie dazu auch Terbeck et al. 2012, Psychopharmacology. Ein zweiter möglicher Verknüpfungspunkt: man findet kausale Ursprünge des moralischen Sol-lens. Doch: die kausale Geschichte eines beliefs ist nicht dasselbe wie die Frage nach dem Wahrheitsgehalt dieses beliefs. Zeigt man aber, dass der belief dass p von x verursacht wird und x als irrelevant mit Blick auf die Wahrheit von p angesehen wird, dann könnte ein de-bunking funktionieren – nur kann diese Struktur einer Argumentation auf alle Positionen an-gewendet werden. Die für ihn offenbar interessanteste Version: Moralpsychologie zeigt die Ursprünge unserer moralischen Intuitionen auf: sind diese Ursprünge nach moralischer Beur-teilung irrelevant, so kann die normative Kraft bestimmter Intuitionen unterminiert werden (siehe dazu Kahane, Phil. Studies, SCAN in press). Hier gilt es zu beachten: die Konstruktion des Experiments entscheidet, auf welchen Aspekt des Ursprungs einer moralischen Intuition man schaut.

Jonathan Haidt spricht zu seinem neusten Buch. Verweis auf den Begriff des „Weird“ (wes-tern, educated, industrialized, rich, democratic“), d.h. das Problem, das die weitaus meisten moralpsychologischen Studien mit einer ganz bestimmten Klasse von Menschen durchgeführt werden (siehe dazu Henrich et al, Behav Brain Sci 2010 33, 61-135). De fakto dürfte sich das auch kaum gross ändern in der nächsten Zeit, denn diese Population (Studenten) ist nun ein-mal an zugänglichsten. Kernthesen seines neuen Buchs: Bei moralischer Kognition kommt die Intuition vor dem Reasoning; bei Moral geht es zum mehr als um harm und fairness; „morality binds and blinds“. Derzeit unterscheidet Haidt sechs moralische Dimensionen: care/harm, fairness/justice, liberty/oppression; loyality/betrayal, authority/subversion; sancti-ty/degredation. Und er sagt: diese Dimensionen warden entlang des politischen links-rechts-Spektrums unterschiedlich gewichtet. So genannte moral systems sind die Basis für Zivilisati-on durch: Ermöglichung von Kooperation; von Arbeitsteilung; Aufbau von Tabus bzw. etwas Heiligem (das dann gemeinsam verteidigt wird). Begriff des moralischen Kapitals: soziales Kapital plus Institutionen, Traditionen, Normen. Er packt aber sehr viel in seinen Begriff eines moralischen Systems (dürfte noch wenig strukturiert sein – Buch lesen!).

Beginn des Teils über moral enhancement. Ingmar Persson (Buch: Unfit for the future) spricht über die Notwendigkeit von moral enhancement. Das Argument erscheint handge-strickt: Menschliche Moral ist evolutionäres Ergebnis von Lebensbedingungen, die sich radikal gewandelt haben. Welt steht vor dem Abgrund. Ergo: wir müssen uns „moralisch enhancen“, um die Welt zu retten. Er meint: es ist heute einfacher, vielen Menschen zu schaden als vielen Menschen zu helfen; bzw. einem System Schaden zuzufügen, als ein System zu verbessern. Habe nicht den ganzen Vortrag angehört.

Am Sonntag folgen kürzere Vorträge als an den Vortagen. James Hughes spricht zu den problematischen Aspekten von „virtue enhancement“. Eine Beobachtung. Zivilisation ist im-mer noch das beste moral enhancement, das wir derzeit haben. Er orientiert sich am Tugend-begriff von McIntyre: Tugenden als social skills, die für bestimmte Gesellschaftsformen ty-pisch sind. Historische Beobachtung, dass die Idee, mittels Substanzen die Moral/Tugenden einer Person zu verbessern, sehr alt ist: Schamane, Vegetarismus; chinesische Kräuter; Fasten; sowie Alkohol/Drogen als moralisch problematisierte Substanzen. Es gibt auch eine Asym-metrie zwischen dem Verbot, bestimmte Substanzen (zur Verhinderung der moralischen De-kadenz) zu nehmen und dem Gebot, bestimmte Substanzen zur „moralischen Veresserung“ zu nehmen. Man bedenke auch, dass solche Gebote auch via Verhalten funktionieren („Hast Du die Pille genommen?“ – ein Instrument zur Selbstkontrolle). Weitere historische Beobachtung: Rolle von Kaffeehäusern zur Promotion der Aufklärung. Was man damals dachte: Kaffee fördert Rationalität, d.h. ein indirektes Enhancement, das nicht auf Moralität selbst zielt, sondern auf die Fähigkeiten (hier: zur Deliberation).

Erik Parens fragt sich, ob „moral enhancement“ wirklich der korrekte Begriff ist. Wir sind in der zweiten Welle der enhancement-Debatte. Es geht nicht mehr darum, ob man für oder ge-gen enhancement ist, sondern darüber, was enhancement eigentlich genau bedeutet. In er ers-ten Welle sagten die Befürworter: Menschen sind Erschaffer; Natur ist ein Mechanismus; Technologie ist ein moralisch neutrales Instrument. Gegner sagten: Mensch ist Geschaffenes; Natur ist ein fragiles Netzwerk; Technologie ist ein wertegeladener frame. Will man enhan-cement aber verstehen, braucht man beide Perspektiven. Kritiker müssen akzeptieren, dass das Ziel von moral enhancement an sich gut ist und die Mittel dafür nicht prinzipiell schlecht sind. Er will eine Unterscheidung zwischen enhancement um einen bestimmten Zustand zu erhalten bzw. enhancement, zum einen bestimmten Zustand zu verbessern (Beispiel für ersteres: Pillen als Instrument in einer Eheberatung, bei der sich beide Partner an sich einig sind, dass sie versuchen wollen, eine Ehe zu retten). Ein weiterer Gedanke: bestimmte Ziele von moral enhancement müssen für bestimmte Personen wertlos sein können, d.h. es braucht Freiheit bei der Setzung von Zielen. Wir wollen in Aktivitäten eingebunden sein, die uns als Person ausdrücken, d.h. Authentizität. Befürworter und Gegner seien sich einig, dass Soma nicht das richtige moral enhancement sei. Ein wichtiger Zweifel bezüglich der Mittel: Wir verstehen das System (Gehirn etc.) nicht wirklich und wissen deshalb auch nicht, was genau ein substanzgestütztes moral enhancement verursachen wird. Z.B.: Generelle Verbesserung von attachment unterminiert kin-attacment; Reduktion von Aggression kann generell den Wunsch zu handeln unterminieren.

Joshua Knobe spricht eigentlich nicht zum Thema, sondern zu neuen Forschungsergebnissen, wie die Wahrnehmung einer Person die Attribution bestimmter Eigenschaften beeinflusst. Konkret: die Körperlichkeit einer Personenwahrnehmung beeinflusst, inwieweit wir einer Person intentionale (z.B. beliefs, intentions) und phänomenale (pain, joy) Attribute zugestehen – ein Punkt, den man bei disembodied agents (z.B. Korporationen) bereits untersucht hat (d.h. man glaubt eher, dass eine Firma Absichten hat als dass eine Firma Freude empfindet). Durch Experimente in denen man mehr oder weniger Körper von Personen zeigt findet man mehr oder weniger Bereitschaft bei den Versuchspersonen, den Personen phänomenale Attribute zuzugestehen (mehr (sexualisierter) Körper, mehr phänomenale Attribute) – an sich nicht erstaunlich.

Anna Pacholczyk spricht zu einigen Problemen von moral enhancement: Kontext entscheidet über Moralität des Enhancement (d.h. man müsste kontext-sensitiv enhancen). Eigener Ge-danke: Man müsste eigentlich eher so was wie ethical enhancement anstreben: d.h. Verbesse-rungen im Umgang mit moralisch schwierigen Situationen (vielleicht auch: mehr disagreement erzeugen, moralische Konformität brechen). Dann: soll es moral enhancement nur in definierten Situationen geben (z.B. Aggressionstherapie?).

John Shook glaubt, dass es in Zukunft viel moral enhancement geben wird – auch wenn er das Thema eher zynisch betrachtet. Dann einige Gedanken zur Funktion von Neuroethik, bzw. von „enhancing ethics“: Klassische Rolle: sammeln und priorisieren unseres Wissens über Moral; prüfen, inwieweit die Erkenntnisse der moral neuroscience mit dem gängigen ethischen Wissen kompatibel ist; so was wie „normative guidance“ mit Blick auf den Ausbau bestehender ethischer Theorien. Bleibt alles sehr vage.

William Kabasenche spricht über virtue engineering – d.h. dem Verstärken von Handlungs-potenzialen. Blick auf die Inhalte, nicht auf die Fähigkeiten. Im Wesentlichen zeigt er, wie komplex der Begriff der Tugend ist und dass es kaum vorstellbar ist, inwieweit hier moral enhancement funktionieren kann.

Molly Crockett spricht über die heute tatsächlich bestehenden Möglichkeiten für moral en-hancement: Die Komplexität der heute adressierten Systeme (Dopamin, Serotonin, Acetylcho-lin, Noradrenalin etc.) und deren Eingebundenheit in zahlreiche unterschiedliche Verhaltens-weisen und Fähigkeiten lässt es unglaubhaft erscheinen, dass man kontextgerecht und zeitlich gut getimt moralisches Verhalten enhancen kann. Kontext-sensitivität ist zentral für adaptives Verhalten.

Wendell Wallach weist darauf hin, dass die heute diskutierten ethischen Probleme (klonen, Stammzellen, Gentech-Food, Nanotechnologie etc.) komplex sind und man sich nicht wirklich vorstellen kann, wie moral enhancement hier zu einer Verbesserung beitragen kann. Hinweis für uns: der Begriff „moral compass“ scheint deutlich älter zu sein als im Buch Moral Intelligence.

Patrick Hopkins spricht zum interessanten Punkt einer moral disease (also Pathologisierung des Unmoralischen – wohl der Weg, um Forschung im Bereich moral enhancement zu legiti-mieren). Man kann das einmal rein deskriptiv ansehen: wie sieht die Verteilung konkreter moralischer Urteile/Verhaltensweisen aus? Extremwerte können als Abweichungen verstanden werden. Man kann sich gewiss darauf einigen, dass bestimmte Verhaltensweisen „moralisch krank“ sind, z.B. mit Blick auf moralische Emotionen (reponse: falsche Stimuli wecken be-stimmte Emotionen wie z.B. Allergie oder keine Reaktion bei bestimmten Stimuli wie z.B. bei Diabetes; die emotionale Reaktion ist zu stark oder zu schwach; oder abnormale Kombi-nationen (wie bei Synästhesie) oder gar neuartige moralische Emotionen wie bei tetrachroma-ly, Personen mit einem vierten Farbrezeptor). Eine „moral disease“ dürfte eine Cluster-Charakteristik haben, sicher kein klar abgrenzbares Phänomen, aber eine moral disease ist eventuell einfacher definierbar als eine mental disease. Strategien: Entweder verneint man die Existenz einer moral disease und die empirisch gefundene Varianz wird angegangen mit Stra-tegien wie Diversität akzeptieren, Anpassungen, Kontrolle extremer Fälle (z.B. Strafrecht), evtl. enhancement. Oder man sieht das als Krankheit an und es stellen sich die Folgefragen: Diagnose, Therapie, Prävention, Enhancement.

Geoffrey Miller spricht zum Problemkreis Moralentwicklung und Pädiatrie. Ein an sich sehr interessantes Thema, das er aber nur sehr generell abhandelt. Diverse historische Hinweise (Strubbelpeter) und die schwierigen Fragen rund um den Komplex der Pathologisierung von Verhaltensabnormitäten.

Matthew Liao spricht zur Frage, ob Pillen für die Förderung der Elternliebe ethisch gerecht-fertigt wären, gegeben es seien alle praktischen Probleme (Nebenwirkungen etc.) gelöst. El-ternliebe betrifft bestimmte Verhaltensmuster, Haltungen und emotionale Reaktionen gegen-über dem Kind, die generell als erwünscht angesehen werden, in der Praxis aber durchaus unter die Räder kommen können (z.B. auch im Fall von Stiefkindern, Adoption). Einige von ihm diskutierte Punkte: Authentizität der Erfahrung Elternliebe, ist ein solches Verhalten nar-zisstisch. Ist dies eine Selbstinstrumentalisierung? Sollte es eine Pflicht geben, eine solche Pille zu nehmen.

Die letzte Session habe ich nicht mehr besucht.


2. März 2012: Moral Salon

Wir besprechen den Entwurf des Papers von Stuart Foyle, der gefundene Order-Effekte (Wiegman, Okan & Nagel 2012) bei der Präsentierung von verschiedenen Trolley-Dilemmas kritisch untersucht: er verweist auf die (hintergründige) narrative Struktur, die man bei der entsprechenden Sequenzierung sieht (bzw. dazu erfindet) und die möglicherweise diese Effekte erklären können. Ein interessantes Paper, behalten!
 


16. bis 18. Februar 2012: Meeting der Central Division der American Philosophical Association

Ich präsentierte am ersten Tag (die Talks dieser Session werden nicht weiter kommentiert – es handelt sich um die gleichen Forschungsthemen wie am Charlotte-Workshop „digital humanities“ vom letzten Sommer). Ich habe nur den ersten Tag der Konferenz besucht – hier die interessantesten Punkte: Zuerst die Veranstaltung, an der das neue Buch „Braintrust“ von Patricia Churchland kritisch kommentiert wurde. Owen Flanagan beschreibt den Ansatz von Churchland als eine Idee, Ethik als ein „engineering problem“ (Zitat Quine) anzusehen: Ein Problem der Constraint Satisfaction (er orientiert sich dabei stark an den Kohärenz-Ideen von Thagard), in dem ein System von hypothetischen Imperativen den Zwängen der biologischen Natur des moral agent ausgesetzt ist. Das Gehirn sei dabei gewissermassen die „Plattform“, auf der das Theater der Moral spielt (so gesehen sicher richtig aber auch eher uninteressant). Churchland sehe vier Dimensionen (?) von Moralität: caring, mind reading, problem solving in a social context, learning social practices (das scheint logisch nicht auf der gleichen Stufe zu stehen). Thomas Hurka ist dann in seinen Ausführungen deutlich weniger nett. Seine Grundfragen sind: Will Churchland eine Aussage darüber machen, was moralisches Verhalten verursacht? Hat sie eine metaethische These bezüglich der Frage, was wir tun, wenn wir moralisch handeln? Oder hat sie eine normative These im Sinn von, welche moralischen Urteile korrekt sind? Zu keiner der drei Fragen gebe das Buch eine klare Antwort. Insbesondere die normativen Claims sind unklar: gehe es darum, dass Verhaltensweisen mit „tieferen“ evolutionären Wurzen „moralischer“ sind? Dazu gibt es aber diverse Gegenargumente (z.B. falsche Ansichten zu Wahrscheinlichkeiten, die mutmasslich evolutionär bedingt sind). Will sie „prosoziales“ Verhalten auszeichnen? Doch „prosozial“ kann sehr unterschiedliches bedeuten. Seine Grundkritik: Churchland äussert sich gar nicht zu Fragen, die in der Moralphilosophie relevant sind. Edouard Machery schliesslich redet gar nicht gross über das Buch, sondern über seine Forschung. Was interessant ist: er macht derzeit mehrere Studien zur Frage, wie Menschen unterschiedlicher Kulturkreise moralische und nichtmoralische issues unterscheiden und moralische issues selbst klassifizieren. So zeigt sich beispielsweise (erneut), dass die moral-conventional-Unterscheidung von Turiel nicht stabil ist, wenn man breit genug schaut (suche nach dem Stichwort: conformorality; Chiara Lisciandra).

Interessant war dann auch der Vortrag von Chris Meyer (Kritik der Dual-Processing-Ansätze und der Forschung zur Frage, ob man „philosophische Systeme“ die z.B. Deontologie durch entsprechende neurowissenschaftliche Experimente à la Greene quasi diskreditieren kann). Er identifiziert drei Probleme: non-Konsequentialismus ist nicht gleichbedeutend wie Deontologie (was man aus Greene lesen kann); bei gewissen Dilemmas (z.B. crying baby) kann man hinsichtlich der Begründung einer Antwort gleichermassen utilitaristisch wie deontologisch argumentieren (also in die gleiche Richtung); Methode hat einen Bias: man kann auch Dilemmas wählen, bei denen das emotional verstörende Element auf Seiten der utilitaristischen Entscheidung liegt.
 


3. Februar 2012: Moral Salon

Wir besprechen das Paper „Moral Rationality“ von Darcia Narvaez. Vom Ansatz her eine bekannte „Rationalismus-Kritik“, die interessanter dadurch wird, dass man den „westlichen Rationalismus“ (gemeint ist eher eine bestimmte Form von Objektivität in den Wissenschaften) mit „left-brain-thinking“ assoziiert, während ein eher „ancestral indigenous thinking“ mit der rechten Hirnhälfte assoziiert wird. Doch man sollte aufpassen mit einem derartigen Mapping: Zum einen ist die split-brain-research kritischer zu betrachten (denn es handelt sich hier um deutlich stärker geschädigte Personen, als man annimmt). Zum anderen braucht es – wie das Paper dann später auch indirekt deutlich macht – das Zusammenspiel beider Arten des Denkens, wohl in Abhängigkeit vom Problem. Auch wenn gewisse wissenschaftskritische (methodische) Punkte, die Darcia aufführt, gerechtfertigt sind, so ist die hier beschriebene „Dualität“ der Rationalitätsbegriffe nicht haltbar, denke ich.
 

Textversion für blinde und sehbehinderte Personen © 2018 goleon* websolutions gmbh