Textversion für blinde und sehbehinderte Personen sitemap
Home Textraum Hochzeit Arbeit Forschung encyclog

08.12.08: Vortrag Bert Musschenga

Thema: Epistemic value of intuitive moral judgments. Ausgangspunkt ist das zunehmende Interesse der Sozialpsychologie an moralischen Intuitionen, die als Unterkategorie der sozialen Intuitionen angesehen werden. Seine erste Frage ist, inwieweit hier derselbe Begriff von Intuition wie in der Philosophie verwendet wird. Offensichtlich bestehen Unterschiede: in der Sozialpsychologie beziehen sich Intuitionen auf kognitive Prozesse mit bestimmten Merkmalen (schnell, spezialisiert, ressourcenarm etc. – im Vergleich zu bewussten Prozessen, die langsam, offen etc. sind), die mit einer gewissen Zuverlässigkeit auftauchen und als Ressourcen für das Handeln dienen. In der Philosophie bzw. Erkenntnistheorie sind Intuitionen eine spezielle Form von beliefs, die mit einer gewissen Zuverlässigkeit Rechtfertigungen liefern und Wahrheitsansprüche einlösen. Man spricht auch von nichtinferentiellen (stimmt das Wort?) Rechtfertigungen, welche quasi holistisch und übergreifend funktionieren (im Vergleich zu interentiellen Rechtfertigungen, prämissenbasiertes Schliessen). Er sieht übrigens auch einen Unterschied zwischen Intuitionen und gut feelings im Sinn von Gigerenzer. Die Frage ist nun: was sind moralische Intuitionen, sind diese nicht-inferenziell gerechtfertigt – also sind das Intuitionen im epistemischen Sinn?

Danach eine Reihe von Autoren zu moralischen Intuitionen, verstanden entweder als selbstevidente Präpositionen (Rober Audi 2004, Michael Huemer 2005) oder als „it seems to S that p“-Aussagen (Bealer 2002). Musschenga untersucht letzteres mit Hinweis auf Bedke (2008), der sich dafür interessiert, was genau „seeming“ hier meint. So gibt es ein competence-driven „scheinen“ gegeben durch die Tatsache, dass derjenige, der das intuitive Urteil äussert, Kompetenzen in den Bereichen hat, die das Urteil betreffen (habe hier nicht alles verstanden). Unterscheidung zwischen reason-tracking und reason-responding (wichtig!) – Intuitionen sind eine Form von ersterem.

Dann beschäftigt er sich mit den Einwänden von Sinnol-Armstrong zu den Störfaktoren von Intuitionen (Framing-Effekten etc, siehe Kahnemann). Er bestreitet das Urteil von, wonach solche Effekte moralische Intuitionen generell unglaubwürdig machen würden. Hat der agent das Wissen um mögliche, seine Intuitionen begleitende und beeinflussende Faktoren, hat er auch die Kompetenzen, die ihm einen pro tanto Grund geben, solchen Intuitionen zu vertrauen. Die Frage ist dann aber: wie verlaufen dann Argumentationen bei sich widersprechenden Intuitionen: streitet man um Gründe, oder um Einflussfaktoren? Zudem: ist die Theorie der Einflussfaktoren moralisch neutral? Und inwieweit ist eigentlich die Theorie dieser Einflussfaktoren überhaupt relevant für das faktische Moralverhalten? Das sind ja Phänomene, die im Labor entstanden sind, wo man dem frame genau kontrolliert und Entscheidungsverhalten auf kurzen Zeitskalen erzeugt – ist das die für Alltagsentscheidungen korrekte Zeitskala (was genau sind dort „Entscheidungen“ und „Urteile“)?


21.10.08: Kolloquium Huppenbauer

Immer noch der Nida-Rümelin-Text. Nur einige wenige Gedanken: die Intuitionen finden sich auf der Ebene des Einzelfalls, Probleme entstehen erst auf der Ebene der Generalisierung (erst hier wird begründet). Man unterschätzt den Begründungsbedarf lebensweltlicher moralischer Urteile. Grundproblem: haben Intuitionen den Status von Gründen? Kann man fordern, dass die Lebenswelt möglichst normativ widersprüchlich sein soll, so dass die Kritikfähigkeit der ethischen Theorie gewahrt bleibt? Die Einheit der Lebenswelt betrifft schliesslich nur das Individuum.


Notizen Gespräch Paul Holzheimer, 14.10.2008, 13.30-14.30, Emory, Atlanta

Depression: Andere Angaben als Mayberg zur Patientenpopulation, die für DBS bei Depression geeignet sein könnten: weit weniger als 1% der Bevölkerung (Bezug nicht ganz klar, % der Betroffenen?). Will man höchsten Impact machen, sollte man nicht DBS finanzieren, sondern man müsste in Psychotherapie investieren. Doch warum DBS? Weil wir die Idee von Depression verändern. Ein ganz neuer Ansatz der auch für andere psychiatrische Krankheiten relevant werden kann. Es geht also um Grundlagenforschung. Es gibt sicher nicht nur eine Art biologische Marker für Depression. Bin unsicher, ob Major Depression überhaupt eine einheitliche Entität ist. Phänomenologie und Biologie dürften hier sich nur teilweise überlappen. Suizidalität beispielsweise kann auch damit zusammenhängen, wie religiös die Betroffenen sind. Wir wollen wissen: welche Patienten brauchen welche Therapie? Das wäre bereits ein grosser Erfolg. Es gibt sicher eine Untergruppe von Depressiven, wo die Ursache eine Störung des Immunsystems sein dürfte (Zytokine (?), Gruppe von Andy Miller). Das Problem gewisser depressiver Patienten: sie merken gar nicht, dass es ihnen besser geht, weil sie aufgehört haben, mit der Welt zu interagieren. Zu ihren Imaging-Studien: im wesentlichen bloodflow-PET, manchmal EEG. fMRI ist unsicher bei DBS-Patienten.

Agency: Er folgt den Ideen von Haidt hinsichtlich moral agency. Viele rationale Gründe sind post hoc nach dem eigentlichen Handeln. Er meint das sind dann Erklärungen – aber das stimmt so nicht, denke ich. Betr. fMRI haben sie intern viele Diskussionen über die Glaubwürdigkeit solcher Studien, das sind sehr anspruchsvolle Geschichten. Sie nutzen übrigens auch TMS. Es gibt da offenbar Studien, welche fMRI-basierte Hypothesen hinsichtlich der Funktion des präfrontalen Kortex widerlegen. Das zeigt eben, dass es unklar ist, was das fMRI-Signal hinsichtlich der Dynamik wirklich bedeutet. Er sieht moral decision making im Bild von Greene: Dissonanz zwischen emotionalen und kognitiven Systemen, auch wenn die Trennung zwischen beiden so klar nicht ist. Emotionale Zustände im Gehirn sind aber besser erkennbare als kognitive. Seine Hinweise zur Spiel-Idee: Leute gegeneinander spielen lassen. Sie irgendwie in die Rolle bringen, dass die Spieler das tun, wsa sie sonst auch tun würden.

DBS und Parkinson: Zu den speziellen Störungen bei DBS bei Parkinson: Er kennt auch diese Fälle. Es gibt Patienten, die sich offenbar in ihrer „Persönlichkeit“ ändern. Er denkt, das ist selten. Kennt das nur bei Nucleus Subthalamicus, nicht aber Globus Pallidus als Target. Was ist überhaupt Persönlichkeit? Zuweilen bezeichnet man damit auch Leute, die ihre Emotionen nicht adäquat zur sozialen Situation regulieren können. Fehlinterpretationen von sozialen Situationen beispielsweise. Häufiger sind subtile Veränderungen bei Parkinson-Patienten mit DBS, doch das könnte deswegen sein, weil die Leute wieder Dinge tun können, die sie vorher nicht tun konnten. Zudem beachte die Analogie zu Dopamin-Antagonisten: dort können solche Veränderungen der „Persönlichkeit“ auch auftreten. Das sieht man recht häufig. Beispiel von compulsive disorders: gamblers, Kleptomanie, Hypersexualität. Das ist nicht erstaunlich, man greift ja in die Motivations-Maschinerie ein. Er glaubt zudem nicht an ein einziges „Selbst“. Dann diskutierten wir über den Grad der Kohärenz, den Persönlichkeit in Funktion von Stress ausmachen könnte (unsere Clustering-Idee – kann auch einen Bezug zur Kohärenz von Ansichten in der Gesellschaft haben). Zum DBS-Boom: Eine Entwicklung, die erwartet werden konnte – doch in den meisten Fällen folgt dies nicht der Intention von Helen Mayberg: d.h. ohne klare Hypothese. Dieses trial-and-error geht zu schnell vorwärts. Es besteht die Gefahr, dass einmal etwas schief geht und dann das ganze Gebiet diskreditiert wird. Zur Suizidalität von DBS bei Parkonson: da gab es kürzlich einen Review im Journal (Archives) of Neurology: Klar höhere Rate wegen DBS. Frage: woran liegt es. Verursacht DBS die Suizidalität oder wird eine verdeckte Depression aufgedeckt? Schliesslich wird ja auch die motorische Agency verbessert.

DAS GESPRÄCH MIT HELEN MAYBERG ERSCHEINT IM BUCH MIT JAN


Notizen des Gesprächs mit Liane Young vom 09. Oktober 2008, 10.30 bis ca. 12.00 Uhr

AUFNAHMEGERÄT HATTE KEINE BATTERIE MEHR, DESHALB NUR EINIGE WENIGE NOTIZEN.

Motivation für ihre Arbeit: War von Peter Singers Beispielen abgeschreckt und fragte sich, was steht dahinter? Was fundiert meine moralischen Intuitionen? Sie studierte zunächst Philosophie und interessierte sich für den begründenden Charakter von Emotionen.

Zur Bedeutung dieser Art von Forschung: Hinweise auf Mechanismus der moral machinery können Toleranz wie Interventionismus begründen – letzteres tun wir ja schon in bestimmten Fällen. Wissen über Kontextabhängigkeit des eigenen Verhaltens kann einem ja dazu bringen, den richtigen Kontext auszuwählen.

Methodologische Fragen: Hält sie für überwindbar. Ihr Interesse gilt Läsions-Patienten. Jemand sollte ein Set paradigmatischer Dilemmas entwickeln und aufschreiben. Will neu TMS anwenden, um moral reasoning zu beeinflussen. Hat eigentlich kein Problem mit dem manipulativen Charakter von TMS, denn auch in anderen Studien wird ja manipuliert. Doch ein möglicher Grund für eine andere Beurteilung: Die anderen Formen von Manipulation gehen (zumindest prinzipiell) durch eine bewusste Kontrolle (bzw. man hat die Idee, das man das könnte) – doch das ist bei TMS nicht möglich.

DAS GESPRÄCH MIT APPIAH IM FOLGETAG ERSCHEINT IN INFORMATION PHILOSOPHIE UND DER WELTWOCHE


Notizen zum Gespräch mit Joshua Greene (Harvard) vom 08. Oktober 2008, 13.30 bis ca. 15.00 Uhr

Warum interessiert an dieser Frage?

Ihn interessierte der Unterschied zwischen richtig und falsch. Er kam als Philosoph in die Thematik. Dilemmas interessierten ihn. Er denkt, dass diese Dilemmas etwas erfassen, das für die Ethik wichtig ist. Er bezweifelt die Zuverlässigkeit unserer moralischen Intuitionen in zweierlei Hinsicht. Zum einen, weil dadurch moralische Emotionen geweckt werden. Zum anderen, weil solche Intuitionen unreflektiert sein könnten. So kam er zu seinen Hypothesen betr. Trolley-Dilemmas. Zugang via Neurowissenschaft schien dann für ihn klar – u.a. wegen den Läsionspatienten-Geschichten von Damasio (Decartes Error), wo offenbar Ratio und Emotion gesplittet sind. So dachte er schon als Undergraduade. In Princeton konnte er das dann tun. Erst kürzlich wurden dann auch faktisch solche Experimente getan.

Was sollen solche Experimente in normativer Hinsicht aussagen?

Philosophen nehmen ihre Intuitionen ernst, wissen und interessieren sich aber nicht dafür, woher sie kommen. Das geht von der Annahme aus, dass die Intuitionen, welche Moralphilosophen haben, zuverlässig darauf hinweisen, was dann auch mittels rationalem Nachdenken als moralisch bedeutsam angesehen werden würde. Doch ob das stimmt oder nicht, ist eine empirische Frage. Varianten des Trolley-Dilemmas zeigen ja, dass man – wenn man davon ausgeht, dass Herunterstossen oder via Knopfdruck jemanden aufs Gleis fallen lassen moralisch nicht unterschieden werden sollten – zuweilen seinen Intuitionen nicht trauen sollte. Auch die Entdeckung, dass gewisse Entscheidungen von moralischen Emotionen gesteuert werden, sollte einem zu denken geben – ausser man hält Emotionen für etwas Zuverlässiges. Dann aber muss man Gründe für diese Zuverlässigkeit angeben können. Und hier dürfte die empirische Frage nach der Herkunft dieser Emotionen zentral sein. Denn – wofür es gute Gründe gibt – sind diese Teil unseres evolutionären Erbes, so stellt sich die Frage der Adäquatheit ihrer Nutzung für die Probleme der heutigen Zeit, in der beispielsweise auch Beziehungen zu Unbekannten, weit entfernten Personen moralische Relevanz erhalten können. Insofern ist die empirische Erforschung des Mechanismus dieses moralischen Urteilens relevant, denn sie geben uns neue Gründe für die Beurteilung bestimmter moralischer Urteile.

Spielt hier auch so etwas wie moralische Perzeption eine Rolle – also die Fähigkeit, eine bestimmte Situation überhaupt erst als eine moralische Situation anzuerkennen?

Das spielt sicher eine Rolle. Der Begriff „Intuition“, so wie ich ihn verwende, sollte umfassend genug sein, um auch diese moralische Perzeption mit einzubeziehen.

Was war die Reaktion auf Ihre bisherige Arbeit?

Die Reaktionen waren sehr geteilt – zum einen wurde sie als interessant und relevant angesehen, zum anderen als unwichtig für moralphilosophische Fragen. Gewiss war die 2001-Studie nicht perfekt, es gibt eine Reihe von Dingen, die ich heute anders machen würde. Gewiss war die Studie aber produktiv und gab sowohl für mich wie auch für andere Anlass, weitere Fragestellungen zu untersuchen.

Wie beurteilen sie die zahlreichen methodologischen Einwände gegen fMRI, welche ja eine zentrale Methode für Ihre Experimente darstellt?

Es gibt zahlreiche unterschiedliche Aspekte, die es hier zu beachten gilt. Zum einen ist es sicher richtig, auf die Problematik der Popularisierung solcher Bilder hinzuweisen: man interpretiert viel zu viel in solche Bilder hinein, wenn sie die öffentliche Sphäre erreicht haben. Das ist ein Problem der korrekten Kommunikation solcher Resultate. Davon zu unterschieden ist das Problem, dass Wissenschaftler ihre eigenen Resultate überinterpretieren. Das ist ein Problem der Ausbildung dieser Leute im Hinblick auf die Möglichkeiten und Grenzen dieser Methode.

Sie sind sicher, dass Sie ihre Resultate nicht überinterpretieren?

Nun ja, was heisst „sicher“? Es gibt zwei Arten von Irrtum in diesen Fragen: Man kann etwas behaupten, was sich später als falsch herausstellt. Oder man kann eine Hypothese haben, die sich als falsch herausstellt. Die zweite Art von Fehler ist inhärent in der empirischen Methode und ihr vorkommen ist insofern kein Problem. Es gibt aber betreffend fMRI wohl eine tiefere Form des Unbehagens, die vorab von Seiten der Neurophysiologie kommt, die sich mit der Natur des fMRI-Signals auseinandersetzen – also Leute wie Logothetis. Diese haben ein grundsätzliches Problem mit der Vagheit von fMRI-Resultaten, die ja offenbar wenig mit der Spike-Rate von Neuronen zu tun haben. Gewiss ist man sich noch im Unklaren über die Natur dieser Resultate – doch folgt daraus, dass Leute, die mit fMRI arbeiten, schlechte Wissenschaft machen? Oder ist es vielmehr so etwas wie „junge Wissenschaft“, die sich sicher noch weiter entwickeln wird? Ich denke: findet man eine Aktivität im Gehirn, die mit einem interessanten Verhalten korreliert, so hat man etwas Interessantes gefunden. Und man kann auch Hypothesen dahingehend machen, welche Aktivität mit welchem Verhalten korrelieren könnte und man kann das nachprüfen – unabhängig davon, ob man weiss, was genau diese Aktivität bedeutet (Inhibition, Exitation etc.). Für mich manifestiert sich hier ein soziologisches Phänomen: Wissenschaftler erwarten, dass andere Wissenschaftler mit ihren Standards von Präzision operieren, obwohl diese Standards in unterschiedlichen Disziplinen unterschiedlich sind. Wir sind in einer jungen Wissenschaft, in der diese Standards noch vager sind als anderswo – doch das ist inhärent in einer neuen, sich entwickelnden Disziplin und kein grundsätzliches Problem für unsere Wissenschaft.

Dennoch dürften einige der publizierten Resultate unglaubwürdig sein…?

Mit Sicherheit – wenn ich nur schon daran denke, was ich als Gutachter erhalten und deren Publikation ich verhindern kann. Doch das ist kein Problem, das nur unser Feld betrifft. Zudem sind die Standards auch bei uns im Steigen begriffen. Als ich mit meiner Arbeit begann, konnte man Papers in Topzeitschriften veröffentlichen, welche ein „neuronales Korrelat“ von weiss-nicht-was zum Thema hatten. Dies hört nun aber langsam auf und man kann solche Papers immer schlechter unterbringen. Für Top-Zeitschriften muss man heute auch eine Theorie mitbringen, welche diese Korrelate in einen erklärenden Zusammenhang stellen.

Stellen sich aber nicht auch grundlegende wissenschaftstheoretische Probleme: So lassen sich komplexe psychische Prozesse eventuell recht beliebig sequenzieren und man wird immer (vorausgesetzt man glaubt, dass jedem psychischen Zustand ein neuronaler irgendwie entspricht, was derzeit kaum jemand bezweifelt) auch eine entsprechende Aktivierung finden, wenn man nur genau hinschaut.

Das ist in der Tat ein grundsätzliches Problem der kognitiven Neurowissenschaften. Hier lässt sich aber Abhilfe schaffen. Zum einen können durch Multivarianz-Analysen durchaus auch komplexe Daten untersucht werden, was die oben angesprochene Beliebigkeit zumindest einschränkt. Zum anderen kann man viele, sehr einfache Experimente kreieren, die auf möglichst wenige Faktoren referenzieren, so dass man diese Komponenten möglichst gut voneinander abtrennen kann. Die beliebige Sequenzierung ist zudem nicht ein grundsätzliches Problem: Gewiss kann man Verhalten auf unterschiedliche Weise in Schritte aufteilen – und jeder dieser Schritte dann mit einem neuronalen Korrelat belegen. Das ist a priori nicht uninteressant – die Frage ist dann aber, inwieweit sich diese Informationen über die einzelnen Korrelate in ein kohärentes Bild einpassen lassen.

Wie sehen eigentlich die inter-trial und inter-individual Unterschiede bei Ihren fMRI-Experimenten aus verglichen mit solchen aus der sensorischen Peripherie, wo man mehr Kenntnisse über die neuronalen Mechanismen hat? Sind diese in der gleichen Grössenordnung?

Diese sind zweifellos grösser. Doch die Frage der Varianz muss in Relation zum verwendeten Modell angesehen werden [verstehe ich nicht ganz]. Unerwartete Varianz ist das, was uns interessieren sollte. Sobald man das sensorische und motorische System verlässt, kontrolliert der Stimulus weit weniger von der beobachtbaren neuronalen Aktivität. Die Sache wird nichtlinearer.

Welche Art von Versuchspersonen verwenden Sie für Ihre Dilemmas?

Bei unseren Imaging-Studien sind dies vorab Studenten aus Harvard oder Princeton. Wir machen derzeit aber auch Umfragen, die mehr und unterschiedlichere Leute betreffen (unpublizierte Daten). Wir wollen auch Web-basierte Studien machen. HIER KURZE DEBATTE ZU MEINER IDEE, SMARTVOTE FÜR MORAL ISSUES ZU MACHEN.

Glauben die Probanden, dass die Dilemmas funktionieren?

Natürlich wissen die Leute, dass die Dilemmas hypothetischer Natur sind. Wir prüften auch, inwieweit die Leute die Prämissen akzeptierten und fanden auch Unterschiede, welche aber unsere Resultate nicht wesentlich beeinflussten (Footbridge Dilemma). Die Effekte gehen nicht weg.

Können persönliche emotionale Erinnerungen, welche die Leute beim Nachdenken über diese Dilemmas haben, die Entscheidung beeinflussen? Prüfen Sie das?

Solche Erinnerungen können eine Rolle haben, doch die Struktur der Dilemmas hat einen grösseren Effekt – zumal ja die Inhalte (Trolley/Footbridge) sich nicht gross voneinander unterscheiden und entsprechend vergleichbare Erinnerungen hervorrufen würden. Es gibt zudem auch Untersuchungen, welche solche individuellen Unterschiede aufnehmen wollen.

Inwieweit spielen kulturelle Unterschiede eine Rolle?

Derzeit mache ich keine solchen Arbeiten, weil ich auch nicht ausgebildet wurde, um solche Unterschiede korrekt untersuchen zu können. KURZE DISKUSSION ÜBER DAS TSUNAMI-BEISPIEL UND HELFEN-VERHALTEN IN INDONESIEN, DAS NUR INNERHALB DER FAMILIE SPIELT( VILLA VIGONI-KONFERENZ).

Zur Rolle von Gründen im moralischen Urteilen. Wie nahe stehen Sie dem Modell von Haidt?

Obgleich ich denke, dass Haidt’s Modell wichtige Aspekte des moralischen Verhaltens erfasst, denke ich, dass er die Rolle von Gründen zu stark vernachlässigt.

Wie klar kann man überhaupt zwischen Emotionen und Kognition unterscheiden? Widerspiegelt die Behauptung, es gebe entsprechende neuronale Unterschiede nicht einfach die alte philosophische Dichotomie?

Ich denke, dass es in der Tat unterschiedliche Systeme im Gehirn gibt, welche für Emotionen bzw. Kognition zuständig sind. Und Studien mit entsprechenden Läsions-Patienten scheinen zu zeigen, dass diese Unterscheidung funktioniert. Die Unterscheidung zwischen einem neuronalen System, das rasch aber unflexibel reagiert, und einem System, das langsam aber flexibel reagiert, scheint mir etabliert zu sein.

Wie präzise ist die Redeweise von einem „Netzwerk“ hinsichtlich des neuronalen Systems, das sie identifizieren wollen?

Grundsätzlich haben wir es mit miteinander verbundenen Neuronen zu tun – also einem Netzwerk. Das Problem besteht darin, ein funktionales Netzwerk von einem anderen zu unterscheiden. Der Begriff wird unpräzise (im Sinn: was enthält das Netzwerk), wenn man von einem bestimmten Netzwerk spricht – aber nicht, wenn das ganze angesehen wird.

Aber genau diese Überlappung dürfte doch das zentrale Problem sein: eine Region ist ja in ganz unterschiedlichen Fragestellungen involviert.

Das kompliziert das Problem zweifellos.

Kann man nicht mit TMS mehr über die funktionelle Rolle des Systems herausfinden?

Mit Sicherheit. Ich beginne derzeit auch damit, TMS einzusetzen.

Forscher wie Batson untersuchen Phänomene wie moralische Heuchelei – also die Unterscheidung zwischen intrinsischer moralischer Motivation und nur gespielter. Dürfte diese Unterscheidung bei Ihren Experimenten eine Rolle spielen?

Ich denke, dass dieses Problem zwar bestehen mag, in den verwendeten Dilemmas aber gleichermassen auftritt, so dass es vernachlässigt werden kann. Die Bedeutung von moralischer Heuchelei hängt vom Design der jeweiligen Experimente ab.

Wo sehen Sie derzeit die konkurrenzierenden Theorien betreffend Erklärung von moralischem Urteilen in biologischen Begriffen?

Johnathan Haidt hat sicher einen wichtigen Beitrag geleistet, wobei der Hauptunterschied zwischen ihm und mir der ist, dass ich dem moral reasoning eine wichtigere Rolle zugestehe. Betreffend der Idee einer moral grammar denke ich, dass die Fakten dagegen sprechen. Zudem weiss ich nicht genau, was eine moral grammar sein soll. Bei Jorge Moll sehe ich auch nicht, was die Theorie dahinter sein soll („structured event complexes“).

 


03./04.10.08: Workshop „Ethical/philosophical relevance of neuroscience“

Ich nahm am internen Treffen vom Freitag und am Workshop vom Samstag teil. Zuerst Stephan Schleim, der sein „moral physiology“ Paper vorstellt - eine Übersicht über die Forschung in diesem Bereich, in welchem es gemäss seiner Ansicht ~20 publizierte Experimente gegeben haben soll. Er thematisiert dann vorab die Dilemma-Experimente von Greene und seine dahinter stehenden Ideen (deontology = old brain / utilitarainism = new brain), die auch mit Singer zusammenpassen. Schaue auch Poldrach 2006 (Trends Cog Sci, p. 59) und Finger et al 2006 (Neuroimage, p.419). Was Schleim interessieren würde: ein neural understanding of rationality (dürfte nicht einfach sein). Kurz zu den Kommentaren von Moll und anderen: Greene zeige nicht, dass das limbische System bei deontologischen Enscheiden aktiver ist (muss er das?). Unklar sei die Annahme Greenes, dass utilitaristische Entscheide keine Emotionen wecken würden. Andere werfen Greene anatomische Unpräzision vor. Zudem: der Prozess der Kategorisierung von outcomes (behaviors) ist was anderes als die Kategorisierung der Teile des neuronalen Netzwerkes. Deliberation agiert auf einer anderen Zeitskala.

Thorsten Galert sprach weniger über sein Enhancement-Paper, sondern über sein narratives Konzept von Persönlichkeit. Das Handout ist aufschlussreich, mit den Unterscheidungen Persönlichkeit, Selbstkonzept, Kern-Selbst, Authentizität. Er sollte auch die Frage der Kohärenz des Selbst angehen, denke ich. Zudem wirkt das Konzept statisch, d.h. es fehlt die dynamische Komponente der Veränderung der Persönlichkeit über die Zeit (erscheint aber integrierbar in sein Konzept). Seine Ideen sollten für unser DBS-Projekt wichtig sein.

Ein Gedanke dazwischen: Wissenschaft ist ein eng gewobenes soziales Netz mit starken Bestrafungsnormen, wenn man nicht sagt, auf wen man sich bezieht bzw. von wem man seine Ideen hat (das braucht immer mehr Zeit im wissenschaftlichen Arbeiten).

Nun der Samstag, zuerst Jorgé Moll mit seinem Vortrag „Neuroscience of moral sentiments and values: new evidence (siehe auch www.neuroscience-rio.org). Schleim weist im Vorspann darauf hin, dass Jorge gewissermassen der Gegenspieler von Joshua ist (obgleich dieser eine weit klarere Theorie hat). Zuerst spricht Moll von der Evolution des gehirns, Stichwort: cultural explosion im oberen Paläolithicum, die Affen-Studien von Frans de Waal. Dann (s)eine Hypothese: moralische Urteile aktivieren jene Regionen, die man auch mit impaired moral behavior assoziiert (Colbey et al. 1990), dann seine Studien mit dem Klassifizieren von „moralischen“ Wörtern und Sätzen, wobei er sagt, dass passive betrachten dieser Wörter aktiviere die gleichen Regionen wie der aktive Umgang damit (z.B. diese klassifizieren). Dann seine Bilder, die z.T. voll das Klischee treffen (Schwarzer Mann hält weissem Mann das Messer an den Hals). Viel davon wirkt unstrukturiert, sein „Modell“ ist eher eine Art Lokalisationskarte, ein „stable network of neural components“, trotz grosser Variabilität der Tasks (da bin ich mir nicht so sicher). Er will nun Systeme mit „social reward“ von Systemen mit „nonsocial reward“ trennen, doch seine Stimuli erscheinen mir sehr uneinheitlich klassifiziert (siehe seine charitable donation study im PNAS 2006 und eine Folgestudie von Krieger et al. 2007). Alles in allem überhaupt nicht überzeugend. Zu den Fragen: Interpersonelle Variabilität (beantwortet er nicht), temporal order of activations (kann man derzeit nicht ermitteln), Glaubwürdigkeit der Zuverlässigkeit, dass die Stimuli die gewünschten Vorstellungen wecken (wird mittels Befragungen erhoben - doch auch da könnten die Leute lügen). Aber das Problem ist schon: hat man brauchbare Alternativen zu self-reports?

Dann sprach Guy Kahane zu „the neuroscience of morality“ - ein sehr guter Vortrag. Er antwortet auf das Koenig-Paper von 2007 (siehe www.practicalethics.ox.ac.uk), siehe auch Kahane & Shakel in Nature 2008 (und auch Claramelli, SCAN 2007, 2: 84-92). Hinweis auf die unterschiedlichen Erkenntnisziele von Ethik (systeatische normative Antworten suchen) und Neurowissenschaft (Verhalten kausal erklären). Eine seiner Fragen: wie kann man eine spezifische ethische Theorie einer Person zuschreiben? Bei Philosophen scheint das klar, doch wie ist das bei normalen Menschen? Diese haben oft keine Theorie, oder keinen Zugang dazu, bzw. sie können diese nicht artikulieren. Zudem muss man eine Interaktion zwischen moralischen und nichtmoralischen beliefs und einen competence-performance-gap erwarten. Wir müssen uns hier wohl auch auf eine folk psychology abstützen. Er geht dann näher auf Greene ein und sein Versuch, den Unterschied zwischen Deontologie und Utilitarismus neuronal festzumachen. Er verweist darauf, dass bei den meisten Dilemmas, die er verwendet, diese Unterscheidung gar nicht herauskommt. Zudem sind schon die Fragen problematisch, die man den Leuten stellt, wenn man die Dilemmas vorstellt (z.B. „appropriate“ kann was anderes meinen als moralisch erlaubt, andere Formulierungen haben eher einen Charakter der Vorhersage: „would you push the stranger?“. Siehe dazu Borg 2006, der die Art der Fragen änderte und damit unterschiedliche antworten erhielt. Kohlberg fragte „should you?“, Haidt fragte „Is it morally wrong to …?“. Weiter sagt er, dass sich in den Dilemmas auch die personal-impersonal-Unterschiedung nicht deutlich machen lässt. All das weckt grundlegende methodische Zweifel. Die Frage ist nun: was, wenn man diese ausräumen könnte? Dann ist immer noch ein Fehlschluss im Argument: P1: Moralphilosophen unterscheiden zwischen Utilitarismus und Deontologie, P2: Normale Menschen machen die gleiche Unterscheidung, K: Normale Menschen haben entweder die eine oder andere moralische Theorie. Aber: einer Theorie entsprechen ist nicht dasselbe wie einer Theorie folgen. Man könnte im Fottbridge-Dilemma auch utilitaristisch gegen das Herunterstossen argumentieren. Übrigens macht er auch Imaging-Studien (noch nicht veröffentlicht): demnach zeige sich der Grad der Intuitivität der Antwort in typischen Aktivierungsmuster des Gehirns und die nicht-intuitiven Urteile aktivieren die Regionen, die auch Greene findet. Zusammenfassend: Die Neurowissenschaften hat das Ziel, sub-personale Erklärungen für personale Zustände zu finden, hier bislang nicht erreicht.

Neil Levy sprach dann über „free will, autonomy and the sciences of the mind“. Autonomie verstanden als Handeln gemäss reflektierter, selbst gegebener Werte. Sein Thema vorab die Willensfreiheits-Debatte. Erste Annäherung anhand der Behauptung von Crick: Neurowissenschaft zeigt, dass wir keinen freien Willen haben. Daraus die Determinismus-These: P1: Gehirn ist deterministisch, P2: alle mentalen Ereignisse sind Gehirn-Ereignisse, P3: Freier Wille ist inkompatibel mit Determinismus. K: Es gibt keinen freien Willen. Man kann aber alle drei Prämissen angreifen. Dann zweite Annäherung: Reduktionismus, behauptet ein modularer Aufbau des Selbst (Frage: wie viele Module gibt es?). Unklar ist hier: wie geschieht die Koordination zwischen den Modulen? Dritte Annäherung: Epiphänomenalismus (hierzu nicht weiter). Dann zu Libet (auch das nicht weiter aufgeschrieben). Dann zu dem, was ihn mehr interessiert: die faktischen Einschränkungen der Autonomie am Beispiel der ego depletion (Abbau des Selbst?). Dazu gibt es zahlreiche Experimente die zeigen: das Ego ist eine Ressource, die sich vermindern kann und dann Auswirkungen auf das Urteilsvermögen hat. Er hat ein dual-process-model des Urteilsvermögens: Prozess 1 ist schnell, evolutionär alt, braucht wenig Ressourcen und Anstrengungen, unbewusst, intuitiv, parallel. Prozess 2 ist langsam, aufwendig, übergreifend, bewusst, kontrollierbar, seriell. Dieser Prozess wird durch ego depletion angegriffen und führt zu Willensschwäche. Das Problem der Neuroethik: man befürchtet (fälschlicherweise) mehr die direkten Beeinflussungen als die situationalen Beeinflussungen.

Elisabeth Hildt sprach über anthropological and ethical key issues of the neurosiences. Eigentlich nur eine unustrukturierte Faktensammlung zu den Themen Hirntod, DBS, Neuroenhancement. Ihre These (die erst am Schluss ersichtlich war): man solle die Erst-Person-Perspektive bei diesen Studien besser berücksichtigen. Die nachfolgende Panel-Diskussion bliebt auf der allgemeinen Ebene, hab nicht mehr gross aufgeschrieben.


23.09.08: Kolloquium Huppenbauer

Diskussion zum Text von Nida-Rümelin: Moralische Urteilsbildung und die Theorie der ‚Angewandten Ethik’“. Grundsätzlich gefällt mir die Stossrichtung sehr gut und ich denke, der Text greift wesentliches auf, um was es in der Ethik geht. In der Diskussion fanden sich Stolpersteine in der (nicht einfachen) Argumentation. Hier nur einige wenige Gedanken, die mir dazu gekommen sind: Interpersonelle Rolle von Gründen ist zentral (Gründe werden nur in sozialen Kontexten / Sprachspielen zu Gründen). Kohärenz und Stabilität der „Systeme“ die er nennt (von Überzeugungen, Wünschen etc.) ist eigentlich unklar, was genau das meint. Hier ist der zentrale Klärungsbedarf kohärentistischer Ansätze. Interessant der Angriff gegen die Unterscheidung Überzeugungen und Handlungen, das dürfte an eine tiefe Unterscheidung der westlichen Philosophie rühren: Handlungen sind was für das Individuum, in dessen Autonomie begründet (und entsprechend sind Wünsche und Interessen dem Individuum zugeordnet), Überzeugungen sind letztlich was, das man in generelle Theorien packen will und durch scientific communities angegangen werden. Gedanken zur Normativität des Gründegebens und –nehmens sind wichtig und richtig. Lebensweltbegriff von Nida-Rümelin könnte noch ausgearbeitet werden (hat er wohl an anderer Stelle). Aber den Text im Auge behalten.

Und was ganz anderes: Formuliere eine kurze Definition der Textgattung „Spekulation“ (oder so), in der man freier Gedanken aneinander reihen darf ohne sich gross darum kümmern zu müssen, wer das nun zuerst geschrieben hat (also ohne Referenzen und so). Das sind dann keine wissenschaftlichen Texte im engeren Sinn (weil man die Regeln verletzt), aber befreite Felder fürs Texten.


28.07.-01.08.08: Summerschool UFSP Ethik

Es werden nur Notizen der drei Vorträge von Anwander, Köllmann und Huppenbauer/Bleisch gemacht. Norbert Anwander sprach zu grundlegenden Formen der Begründung moralischen Urteilens. Ein grundlegendes Schema von (moralischer) Begründung überhaupt ist das „Schema X“: P1: (moralische) Aussage A, wonach für eine Klasse K von Handlungen p gilt (p steht dabei meist für ein normatives Urteil wie „gut“, „schlecht“, „richtig“ „falsch“). P2: Zuordnung einer einzelnen Handlung h zur Klasse K. Konklusion: für h gilt p. P1 ist dabei idealiter eine normative Prämisse (sprachlich formuliert als Überzeugung: X glaubt, dass A wahr ist), P2 ein empirischer Klassifikationsvorgang. Dieses Subsumptionsmodell einer Begründung stellt folgende Fragen:

  1. Begründung der normativen Prämisse P1?
  2. Logischer Typus der normativen Prämisse P1?
  3. Art der Klassifikation in P2 (normativ neutral?)?
  4. Ist das Schema X universell?

Zur ersten Frage: Hier lassen sich zwei Grundformen von Begründungen für die Prämisse unterschieden (abgesehen von der Möglichkeit, P1 erneut aus einem Prinzip abzuleiten, was aber zum Regressproblem führt, wenn kein Abbruchkriterium gegeben wird):

  • Fundamentismus: Es gibt nicht-interferentiell gerechtfertigte moralische Überzeugungen (d.h. diese stehen nicht in geeigneter Relation zu anderen moralischen Überzeugungen). Diese Rechtfertigung läuft entweder über Selbstevidenz (z.B. beim Utilitarismus. Kritik: Bestreitung der Selbstevidenz, verweis auf verkappten Dogmatismus), über Transzendentale Argumente (z.B. kategorischer Imperativ. Kritik: transzendentales Argument funktioniert nicht oder habe nur begrenzte Reichweite) oder über die Postulierung eines moral sense (besondere Form der Wahrnehmung, heute vorab im Kontext der moral grammar von Hauser etc. diskutiert. Kritik: Bestreiten eines solchen Erkenntnisvermögens). Im religiösen Kontext wäre hier wohl auch die göttliche Setzung zu nennen (Kritik: gebunden an spezifische Weltanschauung).

  • Kohärentismus: Moralische Überzeugungen bilden ein kohärentes System (Netz) an sich gegenseitig stützenden Überzeugungen. Geklärt werden muss hier insbesondere: Art der Kohärenz (muss mehr sein als Konsistenz); Art der in Kohärenz gebrachten Aussagen (Einzelaussagen, Prinzipien, ganze Theorien – sehr unterschiedliche sprachliche Gebilde); Verfahren der Veränderung von Aussagen zur Steigerung der Kohärenz bestehender Aussagen bzw. zur Einbindung neuer Aussagen (prominentestes Verfahren: Überlegungsgleichgewicht von Rawls). Kritikpunkte: Warum soll Kohärenz Rechtfertigung bringen (denkbar ist: mehrere kohärente System zu gleichen Gegenstandsbereichen mit inhaltlich unterschiedlichen Überzeugungen). Problem des Ausgangspunktes: meist bestehende Überzeugungen, d.h. konservative Tendenz. Man beachte hier: Fundamentismus führt (konstruktiv verstanden) immer zu einem kohärenten System. Hier sollte man in der Tat mehr nachdenken, vorab die Netzwerk-Metapher ernst nehmen (dazu habe ich einige Ideen).

Zur zweiten Frage: Hier geht es um das Problem, dass P1 als Allaussage verstanden meist zu kontraintuitiven Konklusionen führt, d.h. es kann Einzelhandlungen h geben, die zwar K zugeordnet werden können, aber für die nicht p gilt. Hier kann man den logischen Status von K1 anpassen:

  • K1 mit einer Liste von Ausnahmen versehen. Probleme: K1 wird evt. zu gross und unhandlich? Wann weiss man, ob die Liste vollständig ist? Gefahr der Willkür
  • K1 als ceteris paribus Prinzip verstehen, d.h. quasi ein fuzzy Prinzip. Probleme: was macht einen Unterschied relevant?
  • K1 als pro tanto Prinzip verstehen, d.h. als eine Gewichtung.

Zur dritten Frage: Da sehe ich in der Tat ein zentrales Problem. Hier tritt das Argument der „dicken Begriffe“ auf: Was, wenn Klassifikator normative und empirische Elemente vermischt (wie eben bei dicken Begriffen, die konstitutiv eine Wertung enthalten)? Dann wird de fakto bereits durch die Klassifiaktion das normative Element reingebracht (P1 hat dann eigentlich keine wirkliche Funktion mehr im Argument). Der Streit würde dann darüber geführt: stimmt die Klassifikation von h Element K? Zudem ist die These des Partikularismus zu beachten: auch für jede deskriptive Eigenschaft einer Einzelhandlung h gilt, dass sie je nach Kontext für oder gegen eine Handlung spricht (d.h. Klassifikation ist in jedem Fall entweder normativ kontextabhängig oder braucht dicke Begriffe (die zwar immer dieselbe normative Valenz haben, aber bei denen sich das zuvor diskutierte Problem stellt).

Zur vierten Frage: Hier gilt zu beachten, dass man bereits beim Kohärentismus ausserhalb des Schema X ist, wenn P1, P2 und Konklusion in einen kohärentistischen Zusammenhang gebracht werden (Frage ist dann natürlich: welcher Art ist die Verbindung? Mit Rückgriff auf Peirce wird z.T. von adjunktiven Schlüssen gesprochen). Man könnte aber auch moralische Einzelurteile nicht-interferentiell rechtfertigen, z.B. mit Bezug auf moralische Intuitionen. Hier braucht man dann eine Theorie der Bildung moralischer Intuitionen (z.B. Beschreibung des Mechanismus einer moralischen Wahrnehmung). Regeln und Prinzipien entstünden in diesem Fall durch Induktion (nicht Deduktion wie im Schema X). Problem hier ist natürlich: Frage der Zuverlässigkeit und des (kulturellen) Bias von moralischen Intuitionen.

Carsten Köllmann sprach zu Normativität und empirische Forschung mit drei Fragen:

  1. Braucht Ethik empirische Forschung? Im simplen Sinn von „sollen impliziert können“, d.h. man muss sich (abnehmendes Gewicht in dieser Sequenz) hinsichtlich der naturgesetzlichen, psychologischen, sozialen, ökonomischen und juristischen Grenzen für moralische Handlungsanweisungen bewusst sein. Je geringer das Gewicht, desto mehr kann die Anweisung diesen Schranken entgegenwirken. Dann gibt es auch noch die These des weiten Überlegungsgleichgewichts (Norman Daniels): Viele Wertkonflikte seien verkappte Tatsachenkonflikte und lassen sich durch das Einbringen der empirischen Hintergrundstheorien in das Überlegungsgleichgewicht lösen. Daniel Sarewitz widerspricht hier aber insofern, als dass solche empirische Forschung dann eine Ersatzhandlung darstellt (d.h. bezweifelt die Praktikabilität des Vorschlags von Daniels hinsichtlich des Ziels, den Wertkonflikt zu lösen). Empirische Forschung zögert Entscheidung endlos hinaus, zumal auch entsprechende Anreize bestehen (von seiten der Forschung: immer mehr Forschen; von Seiten Auftraggeber: nicht entscheiden müssen).

  2. Braucht empirische Forschung Ethik? Hier zunächst die berühmte These von der Wertfreiheit der Wissenschaft (Max Weber): Wertfragen sind externe Fragen. Erster Einwand: die Notwendigkeit epistemischer Werte (z.B. Wahrheit, empirische Adäquatheit, Einfachheit, Vereinheitlichungskraft, Schönheit) wegen der empirischen Unterdeterminiertheit von Theorien. Zweiter Einwand: Einbruch der Ethik hinsichtlich des Problems der Theoriebeladenheit der Beobachtung: Wahl des Verfahrens, von Schwellenwerten (z.B. bei risikobehafteten Untersuchungen) etc. sind mit moralischen Normen verbunden.

  3. Lässt sich beides überhaupt trennen? Putnams These vom „entanglement of Facts and Values“ u.a. mit dem Hinweis auf dicke Konzepte. Ist wohl zu extrem, Daniel Hausman und Michael McPherson sind da wohl moderater mit der These, die kategorische Abgrenzungen zwischen faktischen und evaluativen Behauptungen sei so nicht gegeben (z.B. wahr-falsch vs. gut-schlecht, objektiv vs. subjektiv, hoher vs. tiefer Grad an Dissonanz).

Markus Huppenbauer und Barbara Bleisch diskutierten unterschiedliche Schemen ethischer Urteilsfindung (solche gibt es mindestens seit 1979, Heinz Eduard Tödt). Hier nur eine kurze Übersicht über solche als Heuristiken zu verstehende Tools (wichtige Unterscheidung sollte man zudem treffen: Tools für die Ethiker und Tools für interdisziplinäre Teams – hier geht es um ersteres):

  • CAT-Schema von Goodpaster: Describe (Fakten Beschreiben), Discern (normative Elemente herausarbeiten), display (wichtigste Optionen darstellen), decide (entscheiden und Handlungsplan aufzeigen), defend (Entscheidung und die dazu gehörenden Gründe verteidigen).

  • Pluralistische Matrix von Mepham mit den drei Spalten „Well-being, autonomy, fairness“ und den verschiedenen Stakeholdern als Gliederung für die Spalten: Schema ausfüllen und positive und negative Gesichtspunkte miteinander verrechnen.

  • Entscheidungsbäume (verlangen vorgängige Rekonstruktion des Problems).

  • Schema ethischer Urteilsfindung von Huppenbauer / De Bernardi mit fünf Schritten: 1) Analyse des Ist-Zustandes; 2) Herausfiltern moralischer Aspekte; 3) Analyse moralischer Aspekte hinsichtlich der impliziten Werte und Normen; 4) Evaluation und Urteilsfindung ausgehend vom moral point of view (Nielsen: korrekte Wahrnehmung und Beschreibung, logische Konsistenz, Intersubjektivität, Diskursivität, unparteilichlkeit); 5) Implementierung der Entscheidung hinsichtlich faktischer Rahmenbedingungen.


17.-20.07.08: Tagung Identität: Vergessen und Gedächtnis (Villa Vigoni)

Tagung geplant als Erfahrungsaustausch, 14 Personen, 7 davon referierten. Drei Themenblöcke: Autobiografisches Gedächtnis, kulturelle Identität, Vergessen und Erinnern.

Hans J. Markowitsch über: „Das unfreie Gedächtnis: Umweltinduzierte Gedächtnis- und Identitätsstörungen. Grundsätzlich ist Gedächtnis etwas dynamisches, sowohl was den Prozess des Einspeicherns als auch des Abrufens betrifft, d.h. Kontextbedingungen wie Stimmungen, emotionale Befindlichkeit etc. haben einen Einfluss darauf, wie Gedächtnisinhalte abgespeichert werden. Was genau betrifft eigentlich den „Kontext“: neurophysiologische Aspekte oder die bewussten (oder potentiell bewussten) Erfahrungen/Einwirkungen? Es folgen zahlreiche Fallbeispiele und Studien: Das „false memory“ Phänomen (das Beispiel mit den Foto-Manipulationen zum Erzeugen von „Erinnerungen“ an nicht stattgefundene Ereignisse). Das Phänomen, dass man sich im Alter an Jugendereignisse, Gedichte etc. erinnert (These: aufgrund des Absterbens hemmender Nervenzellen). False memory Studien von Markowitsch (u.a. 2007): unterschiedliche neurobiologische Korrelate: falsche Erinnerungen im visuellen Kortex, wahre Erinnerungen im präfrontalen Kortex. Dann Hinweise auf zahlreiche Studien über Charakterveränderungen aufgrund Hirnverletzungen: Bericht von Leonore Welt aus dem 19. Jahrhundert („Über Charakterveränderungen des Menschen infolge Läsionen des Stirnhirns“, an der medizinischen Klinik in Zürich); berühmter Fall in den Acta Neurologica (2003) 60: 437-440; Hinweis auf Lobotomie; Hinweis auf das Buch von Vernon D. Mark und Frank R. Erwin: Violence and the brain (Elektroden in der Amygdala). Dann Hinweis auf Demenz und Gedächtnisverlust. Bemerkungen zu seiner Tempero-Frontal-Hypothese des Gedächtnisses (eine wichtige Region für das autobiografische Gedächtnis). Zahlreiche Beispiele von dissoziativen Amnesien (auch eine Schutzfunktion, hat aber Auswirkungen: brüchiges Identitätskonzept beim betroffenen Individuum); bei vielen solchen Fällen finden sich in der frühen Kindheit traumatische Ereignisse. Meine Frage: Ist der physiologische Unterschied (mit fMRI gemessene Aktivierungsmuster) wirklich ein Unterschied zwischen wahren und falschem Gedächtnis? So wie die beschriebene Studie angelegt ist, geht es mehr um Erinnerungen vs. die Aufgabe, sich eine kontrafaktische Geschichte auszudenken. Doch man sollte kontrafaktische Erinnerungen ansehen (z.B. solche, „Was wäre wenn“-Geschichten, die man sich im Fall eines Unfalls ausmalt und die dann zur Erinnerung an den Unfall gehören, auch wenn sie nie stattgefunden haben. Darauf hat er nicht wirklich geantwortet. Und auch nicht auf die Frage, wie die inter-individuellen Unterschiede aussehen. Was man sich auch überlegen könnte: wie hängen eigentlich Persönlichkeitsveränderungen und Gedächtnisverlust zusammen (Persönlichkeitsveränderung eine Folge von nicht mehr sachgerechter Nutzung von Gedächtnisinhalten?)? Ist Emotion ein Element, das (korrekte) Gedächtnisbildung fördert oder hemmt? Da gibt es unterschiedliche Ansichten. Braucht Heilung eine dissoziative Amnesie (so sieht man das z.B. in Südostasien) und ist die Tatsache, dass man sich mit Verdrängtem beschäftigen soll nur Ausdruck unserer Kultur?

Katja Crone über was es heisst, eine biografische Identität zu haben. Ihr Ausgangspunkt: Personen haben Bewusstsein über Identität, sie konstruieren Geschichten über sich selbst, sie schreiben sich Charaktereigenschaften zu und setzen dies ein Bezug zu ihrer Lebensgeschichte. Ihre Idee von Begriffsanalyse: Anwendungsbedingungen (das können sein Fähigkeiten oder Prinzipien, die bei der Konstruktion einer Lebensgeschichte Anwendung finden) eines Begriffs finden und prüfen, was passiert, wenn jeweils eine dieser Bedingungen wegfällt (ist evt. mehr als eine Begriffsanalyse, sondern auch schon definitiorisches Festlegen eines Begriffs). Sie sieht drei grundlegende Fähigkeiten und vier solche Prinzipien – also insgesamt sieben Anwendungsbedingungen des Begriffs „biografische Identität“:

  1. Selbstbewusstsein, d.h. die Fähigkeit sich in ein Selbstverhältnis zu setzen (Reflexivität, Metarepräsentation, die synchron und diachron sein können) und die Fähigkeit zu Selbstzuschreibungen.

  2. Zeitbewusstsein, d.h. die Fähigkeit, Ereignisfolgen und Zeitmodi zu repräsentieren (also auch Meta-Repräsentationen von Ereignisfolgen).

  3. Bewusstsein numerischer Identität, d.h. die Fähigkeit, sich als eine einzige Person mit in der Zeit wechselnden Eigenschaften etc. zu sehen, so dass biografische Veränderungen an sich selbst wahrgenommen werden können.

  4. Narrativität, d.h. das Prinzip, dass Biografien aus Geschichten mit einem Anfang und einem Ende bestehen und Biografien anderer Personen beinhalten (soziale Dimension).

  5. Explanatorische Kohärenz, d.h. das Prinzip, die biografische Identität als Lebensganzes ansehen zu wollen, einhergehend mit der Tendenz, Vergangenes „umbiegen“ zu wollen, so dass diese Kohärenz erreicht wird.

  6. Minimal-Rationalität, d.h. das Prinzip, dass man frühere Handlungen verstehen will und diese in einen Bezug mit eigenen Wünschen und Idealen setzen will.

  7. Identifikation/Aneignung, d.h. das Prinzip, sich mit zeitlich früheren Handlungen mittels geeigneter Handlungsgründe identifizieren zu wollen, wobei diese Handlungsgründe aber auch Gegenstand eigener Evaluation sind (und gegebenenfalls geändert werden können).

Einige Diskussionspunkte: Kohärenz-Prinzip ist evt. problematisch, bzw. braucht Bezug zu einer Zeitskala (sonst hat man Probleme mit gewollten biografischen Brüchen bzw. braucht unterschiedliche Kohärenzbegriffe). Die Dimension, gegenüber wem die biografische Identität erzählt wird, sollte eingebracht werden (ansonsten z.B. das Problem des strategischen Einsatzes mehrerer biografischer Identitäten einer Person). Zudem kulturrelativer Einwand: es gibt Kulturen, in denen der hier beschriebene Selbstbezug schlicht nicht erwünscht wird (z.B. Südostasien, wo die Leute gar keine Übung haben, über sich selbst zu sprechen – und das verändert evt. den Begriff der biografischen Identität).

David Linden über Identität und psychische Krankheiten. Seine Thesen kreisen letztlich um das Problem der Korrelation neurophysiologischer Zustände mit mentalen Zuständen. Biofeedback als mögliches Beispiel, sich für andere mentale Zustände typische Aktivierungsmuster antrainieren zu können (doch das ist kein prinzipielles Argument, denn evt. ein Problem der falschen Methode oder unzureichenden Auflösung. Wenn trainiertes Muster mit einem anderen mentalen Zustand einhergeht, dann sollte man letztlich auch Unterschiede in den Mustern finden – ansonsten ist eine der methodischen Grundvoraussetzungen von Bildgebung (und viel mehr) verletzt: mentale Zuständen gehen letztlich irgendwie einher (ohne die ganze Frage der Kausalität ansprechen zu wollen) mit neurophysiologischen Zuständen. Doch es gibt noch ein anderes zentrales Problem: die Rede vom „Zustand“! Bereits auf der neurophysiologischen Ebene (wo man immerhin klare Ideen hat, anhand welcher Dimensionen/Parameter man Zustände bestimmen kann) stellt sich die Frage nach dem richtigen coarse graining (d.h. richtige Partitionierung des Zustandsraums, darum geht es übrigens, der schlichte Hinweis auf die enorme Zahl potentiell möglicher „Hirnzustände“ bei maximaler Auflösung ist irrelevant) – doch wie sieht das eigentlich bei den mentalen Zuständen aus? Wie ist der mentale Zustandsraum partitioniert? Welche Dimensionen spannen ihn auf? Was genau ist eigentlich ein mentaler Zustand der Person X? Offenbar etwas, das auf eine bestimmte Weise zugänglich ist, drei Varianten:

  • Nur X zugänglich (und damit auch nicht berichtbar, d.h. findet sich direkt in der sozialen Welt nicht wieder und damit auch nicht Gegenstand einer naturwissenschaftlichen Theorie)
  • X und Y zugänglich (z.B. durch Berichten – natürlich sofort die Frage, ob das Berichten dann nicht ein anderer Zustand ist)
  • Nur Y zugänglich (ist auch denkbar, z.B., durch Verhaltensbeobachtung von X, ohne dass sich X wirklich im Klaren ist, dass er den korrespondierenden mentalen Zustand hat).

Bruno Bleckmann über antike Schlachtenberichte als Beispiel eines Grundproblems insbesondere der alten Geschichte: Nur wenige Quellen, Quellen über Ereignisse, die noch weiter zurückliegen und damit abhängig sind vom Gedächtnis der betroffenen Person (bzw. des kollektiven Gedächtnisses zum Zeitpunkt der Aufzeichnung). Und eben noch viel mehr Faktoren, wie seine Beispiele zeigen: so haben solche Berichte auch literarische Funktionen, d.h. man will sich z.B. von anderen Berichtern abheben (und man verändert damit die Abfolge der Ereignisse oder Fakten), oder natürlich strategische Gründe (Beschönigungen etc.). Bei diesem Problem könne die Neurowissenschaft kaum helfen (Fried als (mehr oder weniger) Gegenposition lesen).

Eva-Maria Engelen zum Begriff des semantischen Gedächtnisses (das sie anders verwenden will als die etablierte Definition in der Psychologie/Neurowissenschaft, dort ist semantisches Gedächtnis explizites Faktenwissen). Engelen sieht drei Ausprägungen (?) des semantischen Gedächtnisses (eher: drei Arten von Fragen/Problemen, die evt. auch für neurowissenschaftliche Experimente Bedeutsam sein können):

  • So etwas wie ein „sprachliches Gedächtnis“, d.h. die Verwendung von gängigen Ausdrücken (z.B. „der macht wieder einen Negeraufstand“), die letztlich auf historische Ereignisse zurückgehen, aber vom Sprecher nicht angesprochen werden. Hat das nicht auch was mit Etymologie zu tun? Oder der Herkunft von geografischen Bezeichnungen oder bestimmten Namen?

  • Individueller Bedeutungsraum: würde ich verstehen als das semantische Netz, das einer Person bei bestimmten Begriffen zugänglich ist (Netzkanten z.B. definiert durch empirisch evt. messbare Zugriffszeit, emotionale Aspekte?). Das ist ein wichtiger Gedanke (evt. Ansatzpunkt für die Erklärung der hohen inter-individuellen Unterschiede in der Bildgebung).

  • Kollektiver Bedeutungsraum, u.a. definiert durch tradierte Interpretationsmuster oder eben soziale Traditionen, die zu unterschiedlichen Assoziationen bestimmter Wörter führen (z.B. traditionelle Regelung der Kinderaufzucht kann zu unterschiedlichen Bedeutungsnuancen von „Mutter“ führen, je nachdem Männer oder Frauen angesprochen sind).

Danach Präsentation und Diskussion um den (schwierigen) Begriff der neuronalen Repräsentation.

Birgitt Röttger-Rösler über ethnologische Perspektiven auf Erinnern und Gedächtnis mit Hinweisen auf bedeutsame Erkenntnisse in der Ethnologie, wo man drei Formen von Gedächtnis unterscheidet (Maurice Halbwachs):

  1. Autobiografisches Gedächtnis. Zunächst schlicht erfasst durch Gespräche mit individuellen Personen. Danach Konzepte wie Lebenslaufmodelle, Modi der Selbstdarstellung (auch nichtsprachliche wie z.B. Auftreten oder Porträtmalerei), sozio-politische Strukturen und der Einfluss von „grand narratives“ (etablierte Erzählungen über bestimmte geschichtliche Ereignisse) auf Einzelpersonen. Beispiel Indonesien, wo es keine Autobiografien im westlichen Sinn gibt (ist sozial unangemessen), sondern vielmehr der Beziehungsaspekt hervorgehoben wird, das Personalpronomen „ich“ tritt kaum in Erzählungen auf und die Grenze zwischen öffentlichem und privatem wird ganz anders gezogen (z.B. für uns hochintimes wird öffentlich diskutiert).

  2. Historisches Erinnern. Vorab interessant der Unterschied zwischen schriftlosen Gesellschaften und Schriftgesellschaften – z.B. die Rolle der Griots in Westafrika, die eigentliche wandelnde Bibliotheken sind. In schriftlosen Gesellschaften gilt das homöostatische Prinzip: die Bedeutung von Wörtern wird in der unmittelbaren Kommunikation festgelegt (dynamisches Vergessen, keine „tote Geschichte“). Hinweis auf die kognitiven Konsequenzen von Schrift (Literalitätsthese von Jack Goody): Schrift ermöglicht/vereinfacht historisches Bewusstsein, Skeptizismus, Abstraktion, Logik – wobei natürlich beachtet werden muss, dass es kein „entweder-oder“ gibt, Schrift ist immer ein additives Moment in einer schon oralen Gesellschaft und hat auch nicht immer die genannten Konsequenzen (z.B. Aurale Kulturen wie Indonesien, wo man schon lange Schrift hat, aber diese Geschichten in einer Form fasst die diese nur beim Vorlesen gut zugänglich macht wie z.B. viele Wiederholungen etc.)

  3. Kollektives Erinnern. Politisierung von Erinnerung und Vergessen, d.h. was ist „offizielle Geschichte“ von Ereignissen – ein aktuelles Thema der Ethnologie, da in vielen post-Konflikt-Gesellschaften ein Problem (Umgang mit Massakern etc.). Ihre Beispiele: Arpirilla-Bewegung in Chile (Wandbilder aus Stoff, die auf Verschwundene hinweisen u.a. auch versteckte politische Botschaften enthielten), die heute ignoriert wird. Beispiel Ost-Timor, wo alle Konfliktparteien erhebliche Grausamkeiten begangen haben und diese Taten in einem standardisierenden Prozess durch eine Wahrheitsfindungskommission ermittelt wurden, der aber nicht veröffentlicht wurde (und auch nicht in der Landessprache verfasst wurde). Hier das interessante Problem: Wie entstehen aus vielen individuellen Erinnerungen eine kollektive Erinnerung? Was zeichnet letztere aus? Wie monopolisierbar ist dieser Prozess?

Julian Nida-Rümelin über Gedächtnis und Freiheit. Er hat ein gutes Handout, deshalb nur einige wichtige Gedanken: Ihm geht es um autonome Freiheit verstanden als Fähigkeit, sich von Gründen leiten zu lassen und sich selbst Regeln zur Beurteilung der eigenen Gründe zu geben. Frage: wie weit reicht diese Begründungspflicht, zumal ja viel über einschränkende Aspekte (psychologisch, sozial etc.) bekannt ist. Ihm geht es um Deliberation innerhalb dieser Schranken, wobei er sich gegen eine fundamentalistische Variante ausspricht (Letztbegründung und dergleichen). Begründungspflicht endet in der lebensweltlichen Praxis unserer Verständigung, wobei meist das begründungspflichtig wird, das von bestimmten Normen abweicht. Dann Kritik am desire (utility) / belief (probability) – Schema. Problem des Schemas: es ist punktuell (richtige und wichtige Beobachtung), d.h. zu kleine Zeitskala. Aber diachrone Betrachtung und Kohärenz sind wichtig. Für die weiteren Ausführungen siehe Handout.

Schlussdiskussion habe ich aufgezeichnet und verschriftlicht zuhanden der Organisatoren.


19.-21.06.08: International Symposium: Foundations of Human Social Bevahior

Besuchte die meisten Vorträge (auch für NZZaS-Artikel):

Rolf Loeber (Verhaltensforscher) zur Ontogenese von antisozialem Verhalten, insbesondere Gewalt. Zu diesem Problem finden sich drei Grundmuster: Idee der Stabilität („ich bin komisch und bleibe es“), Idee der Verursachung durch andere („das so sei ist Resultat von etwas, das andere Verursacht haben“), und Möglichkeit des Wandels („Umkehr, Reifung ist möglich“). Das Feld der sich ausdifferenzierenden Unterschiede ist dabei gross: Inter-Individuell, im Verlauf des Lebens des Individuums, kulturell-räumlich, im längeren (geschichtlichen) Zeitverlauf. Zudem muss der Effekt von Interventionen, die ihrerseits Moden unterliegen, beachtet werden. Die (biologische) Literatur zur Ontogenese von antisozialem Verhalten ist gross, hat selektiven Bias und adressiert meist nicht die Frage nach dem Effekt bzw. dem Mechanismus von Interventionen. Wichtige Punkte sind unklar, insbesondere was die Ursachen denn nun wirklich sind, wie man diese messen soll, wie diese kausal wirken. Dennoch gibt es eine Reihe von Punkten, über wie weitgehend Einigkeit herrscht: So ist zuerst die Tatsache zu nennen, dass (in den westlichen Ländern) die Mahl der Morde pro hunderttausend Einwohner seit 1100 deutlich abgenommen hat – und zwar um zwei Grössenordnungen (knapp 100 zu weniger als 10 – die USA ist übrigens, auf die Korrelation gemappt, derzeit auf dem Stand des 18. Jahrhunderts). Es gibt zudem ein paper von ihm in press, welche Effekte von Prävention untersuchen will. Dann fünf Punkte, wo man was gesichertes weiss:

  1. Early onset principle: Je früher man bei Kindern antisoziales Verhalten feststellt, desto wahrscheinlicher ist es, dass dieses Kind kriminell wird. Grundsätzlich werden aus wenigen Prozent solcher Kinder dann Erwachsene, die 50% aller Delikte verüben. Demnach setzt die Diskussion um Jugendgewalt durchaus an einem zentralen Problem an. Blick auf sein (?) pathway-model. Für Intervention natürlich ein bedeutsamer Punkt: wenn man bei wenigen früh interveniert, kann man viel Kriminalität verhindern (ist das eigentlich ein Mechanismus, welche die oben genannte historische Entwicklung erklärt?

  2. Age-crime-curve: Es gibt ein klares Muster der Häufigkeit von antisozialen Akten im ontogenetischen zeitverlauf: am meisten Gewalt u.a. in der Adoleszens, im frühen Erwachsenenalter. Ebenfalls wichtig für Prävention: frühes Handeln verhindert, dass Betroffene zahlenmässig viel antisoziale Akte verüben (und damit auch selbst erleben).

  3. Dose-Response-Verhältnis: Treten mehr antisoziale Faktoren pro Individuum auf, steigt die Wahrscheinlichkeit, dass dieses kriminell wird (methodische Frage: was genau zählt man da? Man misst evt. ja nur jene, die tatsächlich kriminell geworden sind und nicht die Population, wo viele solche Faktoren auftreten, die aber nicht auffallen…). Ein ganz wicjtiger Faktor: high parental stress.

  4. Early prosocial factor dominance: Es gibt auch positive Faktoren: je früher diese im ontogenetischen Zeitverlauf auftreten, desto wirksamer sind sie.

  5. Prosocial factor buffering principle: Viele positive Faktoren wirken negativen Faktoren entgegen (was legt eigentlich gut/schlecht fest? Der outcome? Wäre dass dann nicht zirkulär?)

Die für ihn wichtigen Kernfragen sind: Was (welcher positive/negative Faktor) soll man messne? Welche sozialpsychologischen Faktoren verstärken oder vermindern eine neurologische Anlage für antisoziales Verhalten? Was für Interventionen folgen aus diesem Wissen?

Shaun Gallangher, Philosoph, zur Frage nach der Bedeutung der Erkenntnisse der sozialen Neurowissenschaften (u.ä.) für den Verantwortungsbegriff, wobei drei Varianten unterschieden werden müssen: kausale, moralische und juristische Verantwortung. Es folgen dann (uninteressante, weil bekannte) Ausführungen zum Libet-Experiment. Unter dem Stichwort „Plastizität“ nennt er dann die zahlreichen Forshcungen im Bereich social neuroscience (aber das nennt man doch nicht Plastizität?). Solche hätten potentiell Auswirkungen auf den Verantwortungsbegriff im Sinn der Präzisierung von Zurechnungs-/Schuldfähigkeit (was ja soweit nichts neues ist). Dasselbe gilt für die Erforschung von unbewussten Biases beim Entscheiden. Dann die eher seltsame These, man solle solche wissenschaftlichen Erkenntnisse hinsichtlich der Praxis von Verantwortungszuschreibung ignorieren (was natürlich Unsinn ist – Schuldfähigkeit ist bei jedem Prozess eine Frage, wo natürlich auch Expertisen eine Rolle spielen).

James Blair redete unglaublich schnell, schwierig zu folgen. Grundproblem ist reinforced learning – etwa im Sinn zu lernen, was man nicht darf. Zahlreiche Studien zeigen hierzu, dass Amygdala und ventromedialer präfrontaler Kortex bedeutsam sind. Prüfe dazu u.a. Blair et al.: Amygdala & PFC in morality and psychopathy. Joseph leDoux: The amgydala. Hooker et al. (2006) über emotional learning. Paper mit dem Titel „choosing the lesser of two evils…“. Jorge Moll „The neural correlates of moral sensitivity“. Psychopaten-Charakterisierung von Hare (2003). Bei Psychopathen finden sich konsistent schwächere Aktivierungen der Amygdala. Ursachen? (bedeutsam u.a. Missbrauchserlebnisse und Vernachlässigung durch Eltern in der frühen Kindheit). Zudem: es gebe kaum Belege für die Vererbung von Aggressivität. Dann noch weitere Bemerkungen zum reversal learning (zuerst lernt man, dass Stimulus X etwas positives bedeutet, dann aber, dass X etwas negatives bedeutet): das funktioniert auch ohne Amygdala (und was heisst das?). Während der Fragerunde der Hinweis, dass viele Resultate solcher Imaging-Studien task-dependent sind. Ausserdem will er den Begriff Empathie vermeiden, sei zu unpräzise.

Adrian Raine bringt einen Überblick über seine Studien zu neurobiologischen Grundlagen der Kriminalität und antisozialem Verhalten. Ist schon lange sein Thema – schaue dazu die (suggestiven) Hirnbilder in Raine et al (1997) Biol. Psychiatry 42 und Raine et al (1998): behavioral sciences & the law 16. Review-Paper von Chan et al 2008, das alle Studien über strukturelle und funktionelle Veränderungen des PFC und Kriminalität auswertet (über 40). Ganz kurz: je weniger PFC, desto krimineller (bleibt aber statistisch, es gibt durchaus Leute mit beschädigtem PFC, die aber nicht auffällig sind – siehe auch Yang & raine 2008). Dann eine Reihe weiterer Marker zu Themen Geschlechtsunterschiede (Frauen haben mehr gray matter im PFC relativ zur Hinrgrösse) und solche Dinge – konsultiere Raine & Yang (2006) Soc Cog & Affective Neurosci / Glenn et al (2008): Moral decision making & Psychopathy. Interessante Korrelation hinsichtlich Ernährung: Je mehr eine Population Fisch isst, desto geringer ist die Mordrate im Land. Hat man auch schon mit Doppelblindstudie an Gefangenen getestet (Omega-3-Fettsäure im Essen vermindert Gewalt zwischen Gefangenen). Wichtiger Hinweis zum Schluss: Die nature-nurture-Frage wird durch solche Studien nicht geklärt: die Hirnveränderungen können ja durch soziale Einflüsse auf das Frühkind verursacht sein. (die letzten zwei Vorträge habe ich nicht besucht).

C. Dan Bateson (20.06.08) gab einen sehr interessanten und strukturierten Vortrag. Sein zentrales Thema: Was motiviert die Leute zum helfen? Egoismus bzw. Selbstinteresse (das sei die Orthodoxie – wird immer behauptet, warum eigentlich? Historischer Support dafür?). Oder (psychologischer) Altruismus, definiert als einen motivationalen Zustand, das Wohlergehen anderer zu befördern (wobei sich eigentlich die Frage stellt, woran sich Wohlergehen bemisst). Egoismus ist dementsprechend der motivationale Zustand, das eigene Wohlergehen zu verbessern. Er will das von zahlreichen anderen Definitionen von Altruismus unterscheiden:

  • Altruismus als helping behavior (ohne die Frage nach der Motivation)
  • Altruismus als fitness decreasing behavior towards others (evolutionäres Verständnis)
  • Altruismus als helping for intentional reward oder reducing of distress (nach seinem Verständnis eine Version des Egoismus)

In einem Schema entlang der zwei Dimensionen Art der Motivation und Resultat hinsichtlich benefit ergeben sich demnach vier Varianten: egoistische Motive mit Benefit für andere / für sich ist kein intendiertes / das angestrebte Ziel; altruistische Motive mit benefit für andere / für sich ist ein angestrebtes Ziel / nicht angestrebter Nebeneffekt. Er will prüfen: was sind die ultimate goals wenn Personen anderen helfen? Methodisch gilt hier insbesondere zu beachten:

  • Glaube keinen Self-reports (nicht nur weil die leute lügen, sondern weil sie oft gar nicht wissen, welches ihre Ziele sind).
  • Leite das ultimate goal aus Verhaltensbeobachtungen ab. Wenn mehrere Ziele, nimm folgendes Abbruchkriterium: ist Verhalten im Zeitverlauf mit einem Ziel nicht mehr konsistent, dann ist das kein ultimate goal.

Beim Design von entsprechenden Experimenten sollte dann folgendermassen vorgegangen werden:

  1. Identifiziere eine wahrscheinliche Quelle für altruistisches Hilfsverhalten.
  2. Identifiziere plausible egoistische Motive, welche diesem Verhalten zugrunde liegen könnten.
  3. Variiere die experimentellen Bedingungen derart, dass die egoistischen Motive leichter zum Zug kommen könnten und messe das Verhalten.

Zu Schritt 1: Eine solche wahrscheinliche Quelle für Hilfsverhalten ist empathic concern (für den Anderen). Also quasi Empathie induziert Altruismus (empathy-altruism-hypothesis). Dabei unterschiedet er sein Verständnis von Empathie von anderen Definitionen wie folgt. Er meint nicht:

  • Empathie = wissen, was X fühlt (kognitiv)
  • Empathie =) Fühlen, was X fühlt.
  • Empathie = distress haben, wenn X leidet
  • Empathie = sich vorstellen, was X fühlt
  • Empathie = sich in die Position von X versetzen (simulation)
  • Empathie = eine Disposition, sich in andere einfühlen zu können.

Zu Schritt 2: Plausible egoistische Motive wären: zu helfen, um distress zu vermindern (aversive arousar reduction); zu helfen, um Strafe zu vermieden (auch Selbstbestrafung im Sinn von Gewissensbissen); zu helfen um Belohnung zu bekommen (auch interne Belohnung: man fühlt sich gut). Um beispielsweise das erste Motiv zu prüfen, kann man das Experiment so konzipieren, damit man sich der distress-Situation leichter entziehen kann ohne helfen zu müssen. In diesem Fall wäre der empathic distress tief, wenn man sich leicht entziehen kann und das Motiv egoistisch wäre – er bliebe aber hoch, wenn die empathy-altruism-Hypothese stimmen würde. Viele solche Experimente wurden bisher durchgeführt (über 30) und alle belegen recht gut die empathy-altruism-Hypothese. Nun stellt sich die Frage nach den proximalen Gründen dieses empathic concerns. Er nennt sechs Möglichkeiten:

  1. self-other-merging (die Datenlage spricht dagegen)
  2. Similarity (Datenlage spricht dagegen)
  3. Sharing the feelings of others (unklar)
  4. Imaging oneself in the shoes of others (unklar)
  5. Imagine how the others feel (möglich)
  6. Intrinsic valuing of the welfare of others (seiner Ansicht nach die beste Erklärung).

Er glaubt, dass Punkt 6 eine art cognitive extension of parental nurturance ist. Zudem ist Erklärung 6 vom Standpuntk der ethischen Theorie sehr interessant: wie kommt man zu diesem intrinsic valuing?

Jason Mitchell macht diverse Studien zum mentalising – der Anfang war interessant, danach wurde es konfus. Zum Anfang: Die Analogie zwischen Wahrnehmung und social cognition: letzteres repräsentiert den Raum mentaler Zustände anderer, was selektiv (d.h. Interessengeleitet) passiert und unter Anwendung unterschiedlichster Methoden passiert (Zwischenüberlegung, solche Wissenschaftler sollten sich mal selbst während einer Introspektion scannen). Danach kommen zahlreiche Studien, wo ich mir ernsthafte methodische Fragen stellen: die Einführung liberaler vs. Konservativer Charaktere, die willkürlich erscheinende Gruppierung der Versuchspersonen, die Fragen, mit denen man sich „ähnlich“ wie der andere geben soll (sehr unplausibel – soll man da in gleiche mental states kommen?). Schau dir mal die Studien genauer an: Mitchell, Macrae & Banaji (2006) Neuron; Jenkins, Macrae & Mitchell (2008) PNASD.

Sue Carter gab einen umfassenden Überblick zu Oxytpocin-Studien im Kontext der Frage, wie soziale Beziehungen zustande kommen. Oxytocin ist ihrer Ansicht nach jenes zentrale Hormon/Neuropeptiv, das das „Sicherheitsgefühl“ vermittelt (Angst und Furchtreduktion, ermöglicht Immobilität während Fortpflanzung/Geburt – vorab bei Tiere zentral, da Immobilität die Gefahr erhöht, gefressen zu werden). Habe nicht im detail notiert. Wichtiger Hinweis: Derzeit wird während Geburt in westlichen Spitälern routinemässig Oxytocin gegeben, um die Geburt zu beschläunigen – sie hält das für ein gigantisches Experiment.

Richard Davidson sucht nach der neural basis of individual differences in social und emotional behavior. Dachte zuerst, er gebt auf das Problem der grossen Unterschiede zwischen Individuen ein – aber nachher sprach er dennoch primär von Unterschieden zwischen Gruppen wie Autisten, Depressive. Nur an einem Ort ein Hinweis auf diese grossen Unterschiede in den Studien. Sein experimentelles Paradigma: emotion regulation (was genau das meint, wurde mir nicht klar). Setting: Schockierender Stimulus (Bilder, Elektroschock) zeigen und die Leute sollen sich dann „beherrschen“, wobei ein Marker für eine Emotion gemessen wird (oder so…). Veränderung dieses Markers in der Zeit ergibt das individuelle Muster. Schau dir folgende Studien an: Urry et al (2006) J Neurosci; Dalton et al (2005) Nat neurosci über Autisten; Wang et al in preparation. Und eine Frage: wie kommen die eigentlich zu ihren Versuchspersonen. Und wie bringen sie die Autisten in den Scanner? Dann noch Hinweis auf jene, welche jetzt Mönche in den Scannern meditieren lassen (diese halten es dost bis zu 7 Stunden aus), siehe dazu Lutz et al. (2008) PLoS one. Den Vortrag von Carel van Schaik und die beiden ersten Vorträge des Samstag liess ich aus.

Jesse Prinz (21.06.08) gab einen sehr guten Vortrag zu den unterschiedlichen Modellen hinsichtlich des Zusammenspiels von Reason (R) und Emotion (E) in Moral Judgments (J). E spielt mit Sicherheit eine Rolle in J, zumal ja fMRI-Studien zeigen, dass die mit E assoziierten Zentren aktiv sind – aber viel mehr zeigen diese Studien nicht, denn sie sind konsistent mit allen Modelle von Moral Reasoning:

  1. Rational model: R führt zu J führt zu E. Hat sicher einiges für sich, schliesslich beruft man sich auf Gründe, wenn man J rechtfertigt. Hingegen wurde dieses Modell in jüngerer Zeit vielfach angegriffen, u.a. mit der Idee der „moral grammar“ (Hauser), der fehlenden Erklärbarkeit kultureller Unterschiede (z.B. bei Verteilproblemen, wo je nach Kultur unterschiedliche Gerechtigkeitsvorstellungen herrschen: Verteilen nach Leistung (z.B. USA), gleichverteilen (z.B. China), nach Bedürftigkeit verteilen)) und den zahlreichen Dilemma-Studien von Greene etc. Hierzu ein Gedanke: man prüft in diesen Studien nie die Glaubwürdigkeit der Dilemmas bei den Probanden. Dass beim personal trolley Dilemma die Leute den Dicken nicht runterstossen wollen, kann auch deshalb sein, dass sie (rasch und rational) nicht glauben, dass das funktioniert. Zudem gibt es zahlreiche Einflüsse, wie man in jüngerer Zeit untersucht hat: Einfluss des wordings (alte Geschichte), Einfluss der Umgebung, wo an entscheidet (Beispiel des dog eating judgments an einem aufgeräumten oder chaotischen Pult), Induktion von Wut bevor das Dilemma beurteilt wird, etc: all das ändert die Antworten.

  2. Dual process model: R und E führen gleichermassen zu J (hier Hinweis auf die Studien von Greene und Koenig). Hier gilt grundsätzlich einzuwenden, inwieweit diese Dichotomie zwischen R und E überhaupt stimmt (und auch deren Verbindung zu R gleich bewusst und E gleich unbewusst/automatisch). Psychopathen-Studien, welche genannt werden um diese Dichotomie aufrecht zu erhalten, sind so eindeutig nicht: auch Psychopathen oder Personen mit Schäden im vmPFC nutzen Emotionen während Judgments. Prüfe zudem Valdesolo & Desteno (2006).

  3. Causal model: E führt zu J führt zu R (Haidt und Nichols). Doch es gibt klare Fälle, wo R J beeinflusst. Ausserdem (und das ist wichtig!) braucht schon das Kategorisieren von Events R (was auch unbewusst geschehen kann). Haidt führte ja dann eine Rückkopplung zwischen R und J ein – doch damit verliert das Modell natürlich an Unterscheidungskraft. Ausserdem müsste man sich zu fragen beginnen, bei wie vielen aller moral judgments dieses Modell Anwendung findet – doch wie will man das messen? Wie will man überhaupt einmal erst die Grundgesamtheit bestimmen? Zudem ein Gedanke: was ist überhaupt J. Ich denke, das ist immer ein soziales Ereignis und damit muss J kund getan werden und das kann (je nach Grad der Exponiertheit, der daraus folgt) sofort E verursachen.

  4. Constitution Model: J ist ein emotional State (keine klare Trennung zwischen E und J) und steht in Wechselwirkung mit R. Dazu brachte er eine Modellskizze: Reason meint „X is an Y“ führt das in Kombination mit einem Value-Prozess (sentiment toward X) zu einem Judgment, das einer „Emotion toward Y“ entspricht, wobei aber auch weitere Emotionen reinspielen können und post-hoc Justifications resultieren können (nur grob übernommen).

Viele Fragen sind natürlich noch offen. Was Prince unter anderem interessiert: can we disrupt morality in healthy people (dazu offenbar eine Studie von Simona Schnall et al, in preparation), Einfluss von Persönlichkeit auf moral values, Rolle positiver Emotionen (man nimmt meist nur negative, weil diese bei fMRI klarere Signale geben), welche Faktoren bewirken moralischer Wandel? Prüfe zudem auch Goodwin & Darley (2007).

Michael Tomasello zu den origins of shared intentionality. Sein Fokus: individuelle Ontogenese, wo kulturelle und biologische Evolution gleichermassen ihr Wirkungsfeld haben. Dazu macht er vergleichende Studien mit jungen Primaten und jungen Menschen. Zahlreiche sehr interessante Studien vorgestellt, u.a. Tomasello, Carpenter … (2005) Behav Brain Sci; Call & Tomasello (2008) Trends Cog Sci; Warnecker et al (2007) PLoS Biology. Kernbeobachtung: junge Menschen und junge Affen unterscheiden sich bei Tests zu physikalischen Kompetenzen (Raum, Zahl, Kausalität) nicht gross, bei sozialer Kognition (Kommunikation, ToM) aber deutlich – letztere ist aber die Basis für Lernen. Z.B. erkennen Affen Zeigen/Hinweisen nicht als soziales Signal (und sie generieren auch keine Normen daraus – wir tun das). Bei jungen Menschen mit einem gewissen Ziel (z.B. essen suchen) wird das Zeigen von B in den Kontext gebracht: B will mit helfen, was zu essen zu finden. Affen können diese Signale nicht so interpretieren 8obwohl sie sich sehr für Futter interessieren). Diese soziale Kognition des Menschen ist demnach der Werkzeugkasten, der kumulative kulturelle Evolution ermöglicht – und Affen haben das nicht. D.h. Affen können andere Affen zwar als intentionale Agents erkennen, nicht aber als kooperative Agents. Dadurch kann keine Shared Intentionality entstehen und kein Erkennen gemeinsamer Ziele und Schaffen von Rollen mit unterschiedlichen Aufgaben zum Erreichen dieses Ziels.


07.06.08: International Workshop on Neuroethics, Aachen

Dichtes Programm mit vielen Speakern. Welcome Adress mit einer Matrix zur Klassifizierung neurowissenschaftlicher Probleme: Achse Wissenschaftsbereich, Achse Funktionen, Achse Störungen bzw. Krankheitsbilder (die ja mehr als eine Funktion betreffen können). Zudem gibt’s eine Gruppe zu Autismus: www.irtg.schizophrenie-autismus.de. Nur kurze Gedanken/Zusammenfassungen – beachte auch das Büchlein mit den Abstracts.

Schermer: Psychopharmakologie und Enhancement. Definition von Enhancement gemäss Juengst (1998): Interventionen die mehr als „good health“ anstreben (unscharf, wie allgemein anerkannt). Ihre Fragestellung: ethische Evaluation von Enhancement und wie man (politisch) auf Enhancement reagieren soll. Methoden: Literaturstudium (wissenschaftliche und ethische Literatur), Interviews, eigene Analysen. Dann die üblichen Stichworte: Transhumanisten versus bio-conservatives; einige Beispiele (Donezepil, Modafinil, Methylphenidate, Dopamin-Antagonisten; Problemarten (Baseline-Abhängigkeit des Enhancements, negative Effekte von Überdosierungen, Trade-off-Effekte. Sie hat 2008 einen Review in Neuroscience & Biobehavioral Reviews gemacht. Zahlen zur Benutzung von Ritalin: US-Studenten 6.9%, Niederlande 1.2%. Zudem: seit 1952 soll es 400 neue Krankheits-Kategorien gegeben haben (DSM; was ist die Grundgesamtheit?) – auch ein Aspekt, d.h. was früher als enhancement galt wird mehr und mehr zu einer disease (Rechtfertigung für Propagierung, Verschreibung; zudem fallen so auch klinische Studien in den klassischen medizinischen Bereich).

Schäfer: Historischer Hinweis: bereits Descartes forderte Enhancement (findet sich offenbar im Discour). Anwendungsbereich von Enhancement: Kognition, Gedächtnis, Emotion. Hinweis auf das Buch von Ward Dean (1990: Smart Drugs). Danach die zahlreichen Fragen, welche die Enhancement-Debatte aufwirft (und keine Antworten).

Gross: Enhancement by Neurobionics. Eher ein Blick in die ferne Zukunft mit vier Anwendungsbereichen: Sensorik (Retina-Chips etc.), Gedächtnis („Gedächtnis-Chips“), Kommunikation („direkte Verbindung mit dem Internet“ etc.), Persönlichkeit (emotionale Stabilität etc., u.a. via DBS). Dann ein breites ethisches Analyseraster: Individualethik (Autonomie, Informed Consent, Identität, Menschenbild, Nebenwirkungen, Kosten-Nutzen, Irreversibilität) und Sozialethik (public health, Verschiebung von Standards, Datenschutz, mehr Wettbewerb, Verteilungsgerechtigkeit). Man sollte hinzufügen: Effekt falscher Bilder (viele solche Neurobionik-Geschichten gehen von einer falschen Funktionsweise des Gehirns aus, Computer-Metaphorik).

Podoll: Gibt es ethische Probleme, wenn man „neurobiologisch erfassbare Inspirationen“ von Künstlern untersucht (am Beispiel Migräne)? Mögliche Probleme sind: Reputationsschäden, Künstler verlier Inspiration (Pro: Wissenschaftsfreiheit, Selbsterkenntnis für den Künstler). Einige Interessante Beispiele dazu: Giorgio de Chirico (Fuller & Gale, 1998, Br Med J 297: 1670), Ignatius Brennan (Podell & Robinson, 2000, J Roy Soc Med 93: 263-265). Beispiele zeigen: weder Reputations- noch Kreativitätsverlust. Aufpassen auf den Begriff „Inspiration“: letztlich ist es eher eine Auseinandersetzung mit der Krankheit als eine Inspiration. Offenbar nutzen die Künstler aber ach gewisse Phasen in der Migräne zum Arbeiten (auch wenn sie diese Zustände nicht herbeiführen können).

Hagenah: Stigmation bei Erwachsenen mit Anorexia Nervosa (0.5% Prävalenz). Empirische Studien zeigen: solche menschen werde oft stigmatisiert (Umfeld, auch medizinisches Fachpersonal): „selber schuld“. Sachlage ist aber komplexer. Zu Beginn hat es durchaus autonome Aspekte (Esskontrolle als Ausdruck von Autonomie, auch mit positiver Rückmeldung von der Umgebung wegen schlanker Figur), das ist ein sich selbst verstärkender Kreislauf, der dann das System kippen lässt (Kontrollverlust auch mit neurologisch erfassbaren Merkmalen, Stigmatisierung).

Sabine Müller: Body Integrity Identity Disorders („das ist nicht mein Bein“, übrigens linkes Bein unterhalb des Knies ist der am häufigsten als fremd angesehene Körperteil). Zu den zahlreichen Wurzeln dieser Diagnose in unterschiedlichen Disziplinen (Psychologie, Psychiatrie, Neurologie, etc.). Breites Spektrum an Therapien (Psychotherapie, Verhaltenstherapie, Antidepressiva, Bewegungstherapie, Musiktherapie, TMS, evt. DBS). Frage: ist Amputation auch eine Therapie: Durchspielen der vier Prinzipen von Beauchamp & Childress: nein! (was noch als Frage bleibt: fürsorgerischer Freiheitsentzug gerechtfertigt, damit die Leute sich nicht selbst verletzen?)

Landeweer: Psychiatrie im Zeitalter der Neurowissenschaft (welche psychische Krankheiten als Hirnkrankheiten ansieht). Frage: ist das für Patienten eine gute Entwicklung? Fallbeispiel zeigt: Fokussierung auf Psychopharmaka (ohne auf den Patienten einzugehen) bringt gar nichts.

Lara Huber: Hirn-Visualisierung, zum Gebrauch von fMRI in der Psychiatrie. Hinweis auf die zahlreichen methodischen Probleme (da kenn ich schon einiges), u.a. was sieht man da eigentlich? Individuelle Variabilität, Korrelation (und nicht Kausalität). Es geht letztlich um die Frage des Zusammenhangs der drei Bereiche Bild – Verhaltensstudie – medizinische Diagnostik. Siehe auch die Literatur, welche im Abstract angegeben ist!

Heinrichs: Zum Problem der incidential findings (bei 1-8% von Probanden von fMRI-Studien – braucht es dazu eigentlich eine Typologie der Befunde). Dazu hat er offenbar 2007 ein viel diskutiertes Paper im Deutschen Ärzteblatt veröffentlicht (dort nachsehen!). Recht des Nichtwissens ist hier nur schwer umsetzbar. Probanden sollten das Recht haben, ihre Scans bei einem Neurologen prüfen zu lassen (bezahlt durch die Studie). Zudem: je mehr neuronale Korrelate man findet, desto mehr solche findings dürfte es geben.

Reinacher: Patienten-Autonomie in der Neurochirurgie: vorab mehrere Fallstudien die zeigen, wie schwierig hier zuweilen informed consent ist. Gewisser Paternalismus ist manchmal nicht vermeidbar. Leitvorstellung ist das shared decision making.

Van Oosterhout: Die Akustikus-Neuroma-Geschichte, von der auch schon Sabine erzählt hat: Gamma-Knife ist besser und billiger, wird aber nicht entsprechend propagiert (und nicht von den Kassen bezahlt). Dazu sollte ich eigentlich mal was in der Zeitung schreiben.

Bothe: Seine Ergebnisse zur DBS bei Parkinson: jetzt würde er sagen: bei praktisch allen DBS-Patienten finden sich Persönlichkeitsveränderungen: mehr Risiko, weniger Angst. Klassische neuropsychologische Tests finden das kaum. Seine Paradigmen: Iowa Gambling Task und Kohlberg-Test. Deutliche Veränderungen im „moralischen Verhalten“ feststellbar. PET: Veränderungen im medialen präfrontalen Kortex. Man sollte diese Leute einmal Ultimatum-Spiele spielen lassen! (übrigens: wie stark sind solche Veränderungen bei medikamentösen Therapien?)

René Weber: Er macht fMRI zu moral agency (also kontaktieren!). Prüfe Haidt (2008): Perspectives of Psychosocial Sciences 3(1): 65-72. Darstellung der Forschungslage kenne ich (auch Hinweis auf Young & Saxe). Interessant ihr Ansatz: Narrationen anhand von Fragmenten von Soap Operas. Theoretischer Hintergrund: Disposition Theory (Zillmann). Er meint, eine Reihe von Problemen, die meines Erachtens solche Methoden haben, könne er angehen. Muss genauer wissen, was er macht (nachfragen! – Überblick war sehr rasch). Bin unsicher, inwieweit das moral judgments sind, was die Leute machen (sie kommentieren doch eher…). Aber interessant!

Vincent: Kompakter Talk zu Ethics und legal responsibility mit den Komponenten: Capacity (for responsibility), action, connection (zwischen action und outcome), duty. Das führt dann zum outcome. Aber für legal responsibility braucht es dann auch noch die Zuschriebungsnorm. Dann eine gute Analyse, wo und wie genau neuroscience bei diesen vier Komponenten was verändern kann (nachfragen).

Hübner: Zur Bedeutung des Space of Reason (Sellars) Arguments hinsichtlich der kausalen Offenheit menschlichen Handelns: Gründe sind nichtkausale Entitäten aber Handlungsleitend, deshalb ist menschliches Verhalten nicht kausal geschlossen. Freier Wille wird in diesem Bild zur Möglichkeit der Selbstdeterminierung mittels Beizug des Raums der Gründe (wobei die Gründe durchaus in Hirnaktivitäten repräsentiert sind). Gegenargument: Gründe mögen zwar nichtkausal sein – doch das sich Bewegen im Raum der Gründe ist kausal. Deshalb brauche es eine Ergänzung des SoR-Arguments: Forces of Reason (es gibt so was wie ein Kraftfeld im Raum der Gründe?) und Bewusstsein als Möglichkeit, Gründe akzeptieren zu können (und nicht einfach Gründen blind zu folgen). Ein paar interessante Überlegungen, warte auf das Paper! Was ich mit frage: Idee des Clusterings des Raums der Gründe. Was macht eigentlich eine Aussage zu einem Grund? Nur der Kontext? Die Akzeptanzfunktion des Bewusstseins scheint mehr zur Gewichtung der Gründe („gute Gründe“) zu führen. Wann sind verschiedene Gründe nah (was ist das Distanzmass im Raum der Gründe)?

Lokhorst: Zur Bedeutung der extended mind These (von Clarc & Chalmers 1998) für die Neuroethik. Etwas zu abstrakt für so spät am Nachmittag. Beachte dazu Levy im Am J Bioethics (2007).

Schmitz: Präsentation einer Studie darüber, was Schüler über Neurowissenschaft denkten (94 Schüler zwischen 16-17 im Raum Deutschland, Belgien, Niederlande). Themen waren Imaging, Neuroenhancement, Neuroprosthetics, neuronale Korrelate von „Religion“, Freier Wille – anspruchsvolle Themen! Haben die Schüler wohl alles verstanden?


30.05.08: Workshop Graduiertenprogramm

Zuerst Hanno Pahl zur Normativität des Geldes. Sehr interessante Problemstellung: Geld hatte in diversen ökonomischen und sozialen Theorien Attribute wie Entnormativierung, Entpersönlichung, Quantität, Homogenität, Abstraktion, Universalität: Geld schafft Zonen akzeptierter Indifferenz (oder eben pecunia non olet) – dies eingebettet in diverse soziologische Theorien von der Entkoppelung der kapitalistischen Wirtschaft von ihren moralisch-kulturellen Grundlagen (Max Weber), Wirtschaft als Sphäre normenfreier Sozietät (Habermas), Code des Zahlens/Nichtzahlens (Luhmann). Im Zug der Nachhaltigkeitsdiskussion, Nachhaltigkeitsberichterstattung seit Mitte der 1990er Jahre in Unternehmen und nachhaltiger Geldanlagen scheint Geld diese Eigenschaften langsam zu verlieren. Wie erhält Geld eine moralische Dimension? (zudem werden auch obige Ideen zur Soziologie der Wirtschaft angegriffen). Es folgten einige Ausführungen zur soziologischen Betrachtungsweise von Moral als eine spezielle Form der Kommunikation. Die Methodik zur Behandlung der Fragestellung ist mir dann aber noch nicht so klar. Ansätze: Berichte, Interviews mit Executives des nachhaltigen Investierens, Metaphernanalyse zu „Nachhaltigkeit“.

Elisabeth Ehrensberger zur Rolle von Ethikkommissionen in der Demokratie. Einer der Ausgangspunkte: Habermas (Faktizität und Geltung – bestellen!). Die weiteren Ausführungen siehe Handout. Eine interessante Frage (zu lösender Aspekt): was genau meint overlapping consensus? Was ist Gegenstand des Konsenses (mindestens drei Ebenen möglich: moralische Normen, ethische Standards, Rationalitätskriterien des „rationalen Pluralismus“). Finde ein Mass für Dissens, um Konstellationen hinsichtlich der Wirkung von Ethikkommissionen als deliberative Institutionen zu bemessen (d.h Dissensgrad im Vergleich zum Dissensgrad im politischen System, das als Auftraggeber wirkt).

Dann meine Präsentation. Kritische Rückfragen: Auch ich muss im moral game Festlegungen hinsichtlich des Moralischen machen (wenngleich der Spielraum grösser ist). Aufpassen auf indirekte Effekte: woher willst Du wissen, dass Unterschiede im Verhalten von Spieler X der sich im Zustand A oder B befindet durch diese Zustandsänderung verursacht sind. Aufpassen vor Überkomplexität, Fragen der statistischen Analyse frühzeitig beiziehen. Sehr genau überlegen, was du eigentlich misst. Zudem auch: das Resultat beinhaltet noch keine Wertung hinsichtlich des Mechanismus der Zustandsänderung (also etwa DBS).

Adrian Jäggi, der nach psychologischem Altruismus (im Sinne von Kitchner) bei Primaten sucht (proximate Mechanismen, also z.B. Motive und nicht ultimative Mechanismen, d.h. Fitness-bezogen). Dies mittels food sharing experimenten, d.h. wie geht ein Affe um mit einer monopolisierten Futterquelle. Warte dann auf die Resultate, das dürfte interessant werden. Erweitere Szenario mit Trittbrettfahre-Experimenten (haben Affen ein public good?) – ist vorgesehen.


26.05.08: Seminar Evolution der Moral

Vortrag von Kitchner – im wesentlichen eine Skizze seines neuen Buches: Ihm geht es um die Frage, wie sich überhaupt ein einfaches Moralsystem und dann daraus ein komplexes Moralsystem entwickelt hat:

  1. Die premoral condition: Mitglieder von Kleingruppen der Vorformen vom modernen Menschen musste die Fähigkeit eines psychologischen Altruismus haben (nicht biologischer Altruismus, auf Fitness bezogen): X musste auf die desires von Y derart reagieren, dass die desires von X adaptiert werden.

  2. Die Stabilitätseigenschaften des psychologischen Altruismus sind begrenzt: Zum einen sind hohe Ressourcen notwendig, um diesen aufrecht zu erhalten (grooming, peacemaking etc.). Konflikte innerhalb der Gruppen um Ressourcen sind Ausdruck der Stabilitätsschwäche.

  3. Um einen nächsten Schritt voranzuschreiten, braucht es normative guidance. Funktion von Ethik ist: dealing with altruism failures. Dies passierte wahrscheinlich parallel zur Sprachentwicklung: d.h. sprachlich fixierte Normen, die Gegenstand und Resultat von Kommunikationsprozessen sind. Sehr einfache Regeln betreffen z.B. teilen von Ressourcen, Verurteilung bestimmter Formen von Gewalt. Im Rahmen dieser sozialen Einbettung solcher Normen werden „experiments of living“ möglich.

  4. Im Zug dieses kulturellen Evolutionsprozesses (cultural competition) entwickelte sich dann die reiche normative Welt von heute. Wie bemisst sich eigentlich dieser Reichtum/Komplexitätszunahme: (Zunahme der Zahl der Probleme? Unklar, mehr Probleme können dennoch mit semantisch ähnlichen Normen bewältigt werden). Evt. Zunahme der Zahl sozialer Rollen und Institutionen (Heirat). Dann langsam das Aufkommen der Frage nach dem guten Leben. Frage: Einfluss der Gruppengrösse? Mindestens zweifach: als externer Parameter – aber auch als normative Komponente im Sinn es expanding circles.

Fragen die u.a. im Zug der Erklärung dieser Entwicklungsskizze auftauchen werden: Frage nach der moralischen Wahrheit/Objektivität. Plädoyer für funktionalistisches Verständnis, analog zu (einer Auffassung von) mathematischer Wahrheit. Und auch die Rolle des naturalistischen Fehlschlusses. Hinweis von ihm: das Auftreten erster einfacher Normen ist keine normative Forderung, sondern Ergebnis eines Prozesses zur Effizienzsteigerung: psychologischer Altruismus ist aufwendig (viele Stunden grooming). Was ist hier eigentlich moralischer Fortschritt? (Gedanke: muss man so was mit der Zahl der zu lösenden Probleme normieren?).


20.05.08: Social Systems Seminar

Zuerst der Qualifikationsvortrag von Wenjan Yu (für Diss-Stelle bei Dirk). Quasi eine Übersicht über die Geschichte der Modellierung sozialer Systeme mit Fokus auf Pedestrians (Experiment von Mink 1959, Panik-Modellierung via Gefangenendilemma, social force model). Man könnten sich überlegen, wie man mit solchen Methoden an das Problem der kollektiven Verantwortung rangeht! Interessant der Hinweis auf das Nature-Paper von Burtsev et al (2006) zu perception-based decision-making. Das könnte ein methodischer Ansatz sein, der für mich wichtig ist!. Der zweite Vortrag zeigte, wie man empirische Daten zur Validierung von Modellen von pedestrian dynamics gewinnt (z.B. Rechts-Bias beim Kreuzen von Fussgängerströmen).

20.05.08: Kolloquium Huppenbauer

Thema: kollektive Verantwortung. Voraussetzungen bzw. Motive für diese Diskussion sind unter anderem: Risikoträchtigkeit des modernen technischen Handelns; Arbeitsteilung; Rückkopplung von Vernetzung von Systemen mit nichtlinearen Effekten; Begriff der Absicht wird unterminiert, so dass Gefährdungshaftung als Ergänzung des Schuldprinzips eingeführt wird; das Problem der aggregierten Handlungen und daraus folgenden emergente Phänomene; das Entstehen einer kritischen Öffentlichkeit. Zudem dürfte auch die Idee des Schicksals von der Idee der Durchregulierung der Lebenswelt abgelöst worden sein – das Rechtssystem hier als möglicher Treiber (Anreize wie z.B. Gewinnbeteiligung an Sammelklagen in den USA). Zudem sei bemerkt, dass in der Alltagssprache die Idee einer kollektiven Verantwortung durchaus verankert ist, da man von kollektiven Akteuren (z.B. Mannschaften) spricht. Eine der philosophischen Kernfragen ist: haben diese kollektiven Akteure Intentionen?

Eines der wichtigen Modelle zur kollektiven Verantwortung stammt von Peter French (1984). Unterscheidung von Aggregaten (unkoordiniert, emergent) und Konklomeraten (koordiniert). These: nur Konglomerate können Objekt kollektiver Verantwortung sein. Unterschiedliche Abstufungen von Konglomeraten:

  • Gruppen mit definierten Verhandlungs- und Entscheidungsmechanismen (Unternehmen, Staaten, Kooperationen): Korporationen.
  • Gruppen mit gemeinsamen Interessen/Bedürfnissen (ethnische Gruppen, Stakeholder, Konfessionen).
  • Gruppen mit geteilten Einstellungen (meist negativ formuliert wie z.B. Rassisten).
  • Mobs/Krawallgruppen mit ad hoc Entscheidern (natürlich auch mit der Möglichkeit der Rädelsführerschaft. Hier auch wichtig die rechtlichen Aspekte: Raufhandel).

Nur bei den Korporationen ist die Diskussionslage mehr oder weniger unbestritten, dass dies Träger kollektiver Verantwortung sein können. Solche Entitäten haben meist Identitäten (Leitbilder), Entscheidungsstrukturen, darauf basierende Entlöhnungen (was mehrheitlich aber als eine Form repräsentativer Verantwortung gesehen wird). Klar ist man sich auch hinsichtlich für solche Zuschreibungen ungeeigneter „Akteure“ wie: die Menschheit, die jetzt lebende Generation. Wichtige Frage bei den „unsicheren“ Zuschreibungsobjekten: gibt es in solchen Fällen eine Pflicht zur Schaffung tragfähiger Entscheidungsstrukturen? Was sind die Konstitutionskosten? Sind solche Strukturen flexibel genug angesichts der Wandlungsprozesse solcher potentieller kollektiver Akteure? Dazu einmal genauer nachdenken!

Patricia Werhane entwickelte basierend auf dem Modell von French die Idee der sekundären moralischen Verantwortung von Kollektiven. Dies basierend auf dem Gedanken, dass Kooperationen keine Autonomie haben, keine Person sind und keinen Selbstzweck / keine Würde haben. Sie sind eher so was wie ein intentionales System, das natürlich nur durch seine Mitglieder handelt, wobei aber Handlungen nicht unbedingt auf die Einzelpersonen rückführbar sind. Insofern gibt es kollektive Handlungen, die Gegenstand einer sekundären Verantwortung sein können. Deshalb sollte die Verantwortung von Korporationen kollektiv wie individuell getragen werden (wie auch im Schweizer Strafgesetzbuch Art. 102 vorgesehen). Da Korporationen keine Würde haben, kann man sie zudem auch anders behandeln als Menschen, d.h. an den Pranger stellen (doch was, wenn die Mitarbeiter darunter leiden?). Offene Fragen sind: Sippenhaftung. Welche kollektiven Handlungen sind nicht Verantwortungspflichtig (solche gibt es zweifellos, z.B. man denke an die Konkurrenzsituation auf dem Markt, was zu Handlungen führt, besser zu sein als die Konkurrenz und diese dadurch letztlich auszuschalten).


19.05.08: Vortrag Peter Singer

Thema: „Global poverty, human nature and impartial ethics“. Grundthese: absolute Armut ist ein wichtiges Problem und man kann was dagegen machen. Absolute Armut: Orientierung an der Definition der Weltbank: Zu wenig Einkommen für basic needs, und das ist etwa weniger als ein Dollar Kaufkraftparität (wichtig: Parität, d.h. das was man mit 1$ in den USA kaufen könnte). Davon solle ca. eine Milliarde Menschen betroffen sein (absolute Armut). Gewiss stellen solche Zahlen einige methodische Fragen (nichtmonetarisierte Leistungen in ruralen Ökonomien, was sind basic needs, etc.) aber mit Sicherheit gibt es zahlreiche Menschen die in absoluter Armut leben. Eine Kernzahl: vermeidbare Todesfälle von Kindern unter 5 Jahren (gemäss Unicef ca. 27’000/Tag). Hier kommt nun sein klassisches Argument (nennen wir es K): Ein ertrinkendes Kind retten unter den Kosten, dass Kleider/Schuhe nass werden. Hier sei die Intuition klar: Kind retten ist moralische Pflicht. Generalisiertes Argument: Wenn man A verhindern kann zum Preis von B und die Gleichung unter Anwendung der „Moralwertfunktion“ M() lautet: M(A) >> M(B), dann ist es moralisch geboten, A zu tun. Das Kinder-Beispiel ist eine klare Explikation von diesem generalisierten Argument – doch ist es das Armuts-Beispiel auch? Mögliche Strategien bestreiten entweder dass A durch Mittel B wirklich verhindert werden kann (I) oder dass M(A) >> M(B) wirklich gilt (II). Was er dann diskutiert:

  1. Die Analogie stimme nicht, weil man im Fall K eine klare Verantwortungsbeziehung habe, die im Fall B nicht gegeben sei. Das lehnt Singer ab (doch hier noch mit einer Argumentation die den Kern nicht trifft) mit dem (an sich richtigen) Verweis, die psychologische Tatsache man helfe weniger, wenn andere potentielle Helfer auch da sind, kein normatives Argument stütze, man solle nicht helfen. Man sollte diese Dichotomie zwischen dem experiential und analytic system (Epstein, American Psychologist 49 (1994): 709-724) aber vielleicht nicht immer so scharf ziehen (komme immer wieder darauf, denk schärfer darüber nach). Später dann in den Fragen eine Verdeutlichung: es geht um die Unsicherheit, dass der Einsatz von B wirklich A verhindert (und diese lässt sich nicht so einfach aus dem Weg räumen) – also eine Variante von I.

  2. Wohl als Variante von II auffassbar (?): Die Explizierung des generalisierten Arguments auf das Problem der Armut verlange zu viel. Das ist in der Tat ein schwaches Argument: so viel ist gar nicht nötig (wenngleich sein Verweis auf den Anteil der staatlichen Entwicklungshilfe am BIP unvollständig ist: man müsste auch die privaten Spenden mit einbeziehen und evt. auch die Rimessen – hier dann aber auch berücksichtigen, wohin das Geld geht: nicht immer zu den Ärmsten, d.h. das Problem der politischen Hintergründe für Entwicklungshilfe). Und es besteht auch keine Inkonsistenz, wenn man aus strategischen Gründen den Anteil des abzugebenden kleiner macht (z.B. 5% des Einkommens) obgleich man privat meint, man solle mehr geben (verstehe gar nicht, dass damit jemand ein Problem haben sollte).

  3. Was meines Erachtens aber zu wenig thematisiert wurde (wenngleich einige Fragen darauf hinzielen): die systemischen Effekte. Auch eine Variante von II: Man könnte beispielsweise die zeitliche Komponente hinzuziehen, so dass kurzfristig zwar M(A) >> M(B) gilt, langfristig aber nicht (Eliminieren von absoluter Armut zerstört auch anreize, Gesellschaften fundamental zu ändern (was eine Bedingung für die Beseitigung auch von nicht absoluter Armut sein kann) oder auch bestimmte Regionen zu verlassen). Wie sieht es bei einem Szenario aus, wo absolute Armut weltweit weg ist aber dies zum Preis einer Gesellschaft der strukturellen Armut und Unfreiheit? Oder die eine Gesellschaft stabilisiert die Ressourcen langfristig derart ausplündert, dass es zum grossen Crash kommt. Anders gefragt: was ist die Signalfunktion absoluter Armut? Singers Analogie ist für solche Fragen blind.



19.05.08: Seminar „Evolution der Moral“

Nur wenige Gedanken zu den Papers von Kitcher. Er beschreibt eine Genealogie der Moral mit der Frage im Hintergrund, warum Menschen ein so grosses Spektrum an moralischen Verhaltensweisen haben. Aber an was bemisst sich eigentlich die Breite des Spektrums (bzw. was ist das Unterscheidungskriterium für unterschiedliche Klassen moralischer Verhaltensweisen). Und was eigentlich zeichnet eine Proto-Moral aus? Und an welchem Kriterium bemisst sich Fortschritt in der Ethik? Jedenfalls braucht es eine klarere Idee dessen, was „kulturelle Evolution“ ist, und inwieweit deren Mechanismen gleich bzw. Verschieden zu einer biologischen Evolution sind. Man sollte hier auch keine zu einfachen Vorstellungen von biologischer Evolution haben (Epigenom z.B. ermöglicht Vererbung von Erfahrungen). Und Moral scheint mir auch keine Anpassungsleistung zu sein (moralische Normen können auch als Treiber für künftige strukturelle Veränderungen der Gesellschaft sein).


13.05.08: Forschungsseminar Fischer

Nur eine Bemerkung (Text: Einführung in die Ethik von Ricken – erstes Kapitel). Man sollte zwei Perspektiven auf Entscheidungen unterscheiden: analytische Perspektive: Jedes Handeln ist mit Entscheiden verbunden (dabei gibt es immer mindestens zwei Optionen: Tue X oder tue X nicht). Perspektive des Handelnden: nicht alles, was man tut, wird als Handlung wahrgenommen (das erscheint mit wichtig) – kann aber post faktum als Handlung deklariert und problematisiert werden. Dazu genauer nachdenken.


13.05.08: Kolloquium Huppenbauer

Einführung zum Verantwortungsbegriff (dazu weiss ich schon einiges, daher nur wenige Notizen): Klassischer Verantwortungsbegriff ist individualistisch-retrospektiv (und auch als bottom-up-Begriff zu werten, d.h. ein Verantwortungsnetz entwickelt sich von den einzelnen Individuen her – überlege dir mal, wie man das modellieren kann). Hinweis auf den modernen Charakter des Begriffs (d.h. erst nach WW2 ein Thema, wichtig u.a. Jonas, Verantwortung für künftige Generationen: Birnbacher, Wirtschaftsethik: corporate governance etc.) und die Gefahr der inflationären Verwendung von „Verantwortung“ (Gleichsetzung Verantwortung = Moral, falsche Behauptung, Verantwortung sei bereits ein evaluatives Urteil). Historisch noch interessant: das durch den Begriff Verantwortung beschrieben Problem beschreibt durchaus auch schon Aristoteles (3. Buch Nikomachische Ethik. auch wenn er das Wort nicht braucht), beachte auch den Gewissens-Begriff (Gott als Richter und damit Instanz von Verantwortung – später dann auch die juristische und politische (Rechenschaftspflicht der Regierenden ab dem 18./19. Jahrhundert) Komponente).

Klärungen: nichtmoralische Verwendung (Beschreibung von Kausalbeziehungen, evt. auch Rollenverantwortung: doch da kommt rasch einmal Moral ins Spiel, mindestens in zwei Komponenten: Definition der Rolle, Verletzung der Rolle), Verantwortung definiert einen sozial-dialogischen Kontext und thematisiert Zurechungs-/Zuschreibungsprobleme (Möglicher Unterschied: Zurechnung: Klärung der Kausalstruktur in normativer Absicht. Zuschreibung: Zuordnung von (möglicher) Kausalität unter Unsicherheit) mit Blick auf ein Sozialziel (Sanktionen, Kompensationen, Evaluation künftiger Handlungen). Zudem die klassische Unterscheidung von retrospektiver und prospektiver Unterscheidung (und eigentlich auch individuell und kollektiv). Man sollte Verantwortung vom Pflichtbegriff trennen, denn ersterer rekurriert auf ein soziales Geschehen, in dem Verantwortung festgelegt wird (z.B. in Verhandlungen).

Zum Prädikat Verantwortung: ein mehrstelliger Relationsbegriff (wohl mindestens dreistellig (wenn man Instanz und Kriterium zusammennimmt), im Regelfall vierstellig: x ist verantwortlich für y gegenüber z aufgrund der Kriterien K (wobei K das normative Element transportiert – Bayertz: Verantwortung transportiert nur Wertungen, konstituiert sie aber nicht). Was ist eigentlich das Opfer: Y oder Z (beides möglich – unterschiedlicher Opferbegriff!).

Klassischer Verantwortungsbegriff: Zurechenbarkeit von Verantwortung braucht Kausalität (empirische Urheberschaft oder Eingriffsmöglichkeit), Wissen (Prognosesicherheit, beachte auch die Probleme: Pflicht zum Wissen, handeln unter Risiko und Unsicherheit), Intentionalität, (mögliches Kontinuum von Absicht über Fahrlässigkeit zu naturhaftem Verhalten), Freiheit (d.h. Optionen als solche Wahrnehmen können und bewusst sich für eine Entscheiden können). Das sind auch Bedingungen, welche die Wahrnehmung von (bzw. Pflicht zur) Verantwortung beschränken.

Zu den Problemfeldern, welcher der Verantwortungsbegriff mit sich bringt: Freiheit-Determinismus-Debatte (wohl am relevantesten bezüglich der so genannten Sachzwang-Problematik), „Fernethik“-Probleme (Verantwortung für räumlich oder zeitlich entfernte Personen), kollektive Verantwortung (Problem der „Moralmathematik“), Problem des Schwellenwerts (nichtlinear Effekte von Handlungssequenzen: warum einen einzigen Schritt moralisch auszeichnen?), Verantwortungskonflikte, Überforderung. Und wie verträgt sich Verantwortung eigentlich mit Schuld? (Eigenverantwortung wäre übrigens hier auch einmal genauer anzusehen). Grundsätzlich zeigt sich jedenfalls: „Verantwortung“ ist ein voraussetzungsreicher Begriff.


06.05.08: Vortrag von Fredrik Liljeros

Nur wenige Bemerkungen zu seinem social network Vortrag. Ihn interessiert: warum haben einige soicial networks eine extreme degree distribution. Random networks haben ja nur eine Poisson Verteilung. Seine Idee: Hat mit attachment preference im Wachstumsprozess des social networks zu tun. Das ist ein interessantes Spielfeld: definiere unterschiedliche Wachstumsregeln und schaue, was das für Netzwerke gibt. Hier könnte man auch eine Metrik einführen, welche das Wachstum mitbestimmt. Experimentiere damit einmal!

Zudem brachte er noch einige Bemerkungen zur neueren Geschichte der network theory: small worlds und scale-free networks (letztere sind robust gegen random attacks, aber anfällig gegen gezielte Attacken).


06.05.08: Social Systems Seminar

Interessanter Vortrag von Geoffrey West: Seine Grundfrage: basierend auf der Entdeckung diverser scaling laws in der Natur (z.B. metabolic rate vs. Size; interessante Beobachtung, dass die Zahl der Herzschläge, die einem Lebewesen im Schnitt zur Verfügung steht, eine Invariante ist): lassen sich daraus Ansätze für eine analytische (mathematisch geprägte) Soziologie gewinnen? Grundsätzlich sollte man solche power laws als Ergebnis eines Optimierungsprozesses ansehen. Dann kommen die Resultate der Städte-Studie mit den drei Arten von scaling Exponenten b<0 (economy of scale: z.B. Energienetze), b=0 (lineares Verhalten wie z.B. Anzahl Jobs pro Stadtgrösse), und b>0 (super-lineares Verhalten, charakterisch für Grössen wie Kreativität (gemessen an Zahl der Patente) und Kriminalität). Das Paper dazu kenn ich ja. Einige grundlegende Bemerkungen: wäre die soziale Welt von einer economy of scale geprägt, käme diese im Grenzwert zum Stillstand, deshalb ist b>0 so wichtig. Hier aber haben wir das Problem der Singularität in endlicher Zeit. Wie kann man das umgehen? Er meint: durch Innovationen (unklares Kriterium, was genau als Innovation gelten soll) – aber dann ist das Problem, dass die Zeitabstände zwischen den Innovationen immer kleiner werden müssen. Man könnte sich aber auch überlegen, dass der Exponent b bezüglich der Entität, an der man Superlinearität feststellt (z.B. Zahl der Patente) ändert und in eine economy of scale kippt: z.B. Patente werden nicht mehr ein Mass für Kreativität, sondern ein hinderlicher Faktor in der Produktion (d.h. man versucht sie zu vermeiden, mögliches Beispiel: Software-Entwicklung) – da genauer nachdenken. Eine Interessante Bemerkung ist auch der Rückschluss über unseren pro-Kopf-Energieverbrauch via scaling law auf unsere virtuelle Organismengrösse: wir sind derzeit grösser als ein Blauwal (ein Gednake, der evt. einleuchtender ist als der ökologische Fussabdruck, letztere hat mehr Variablen).


06.05.08: Kolloquium Huppenbauer

Schlussbemerkungen zur Menschenwürde: Grundsätzlich: je umfassender der Begriff eine Intuition fassen soll, desto schwieriger ist es, diesen für konkrete Einzelfälle operabel zumachen. Der Ansatz von Schaber via Achtung: An sich gerichtet gegen jene, welche gegen eine Verwendung des Würdebegriffs in der Ethik sind (Vermutung hinsichtlich Motivation) – aber er trifft die Intuition nicht mehr, dass gerade jene unter den Würdeschutz fallen sollten, welche am verletzlichsten sind (aber denen es an der Fähigkeit zur Selbstachtung mangelt). Deshalb auch eine kritische Linie von jenen, welche Achtungs-Konzeptionen mit Autonomie in Verbindung bringen und an letzterer kritisieren, dass diese die Abhängigkeit der Menschen voneinander zuwenig beachte. Hier könnte der Ansatz von Taylor sehr interessant sein (er steht quer zu den Diskussionen: siehe „Quellen des Selbst“ – lesen!). Begriffe des „moralischen Raums“ und Klärung des „Selbst“ (es gibt kein Selbst ohne moralische Orientierung).

Dann noch einige Bemerkungen zur „Würde der Kreatur“. Entsprechende Argumente kenne ich (teilweise) – nicht weiter beachten. Man sollte diesen Ausdruck aus der Verfassung streichen (und z.B. mit „Eigenwert der Kreatur“ ersetzen – erleichtert aber die Diskussion um die schwierigen Probleme nicht unbedingt, man muss aber nicht die Intuition verletzen, dass Würde nicht einer Güterabwägung unterliegen sollte).


29.04.08: Forschungsseminar Fischer

Nur ganz wenige Gedanken (Text: Abschnitt Tugendethik): Moral umfasst nicht nur Handlungen und Entscheidungen, sondern auch das Sprechen über Charakter und Persönlichkeiten. Dispositionen können durchaus handlungsleitend sein (wenn das betroffene Individuum sie kennt). Internalismus verknüpft zwei unterschiedliche Perspektiven auf das Problem: Gründe versus Motive. Tugenden strahlen auf Handlungen aus.


29.04.08: Social Systems Seminar

Lennart Schalk gab einen Überblick über psychologische Theorien des decision making. Eine Grundkategorisierung ergibt sich aufgrund des Umfangs an Information, der zur Entscheidfindung eingesetzt werden soll. In diesem Spektrum lassen sich maximalistische Konzeptionen, Konzeptionen von bounded rationality und minimalistische Konzeptionen unterscheiden. Zudem kann man auch normatives, präskriptives und deskriptives decision making unterschieden - letzteres ist das Thema. Die psychologische Funktion des Entscheidens hat grundsätzlich folgende Merkmale: ist eine kognitive Funktion, ist zielorientiert, ist regelgeleitet, wählt zwischen verschiedenen Optionen, kennt einen Mechanismus zur Bewertung von Optionen.

  1. Maximalistische Konzeptionen: Hat ihre Wurzeln unter anderem in der Spieltheorie (von Neumann & Morgenstern) und der Idee der subjective expected utility (Savage). Diese Idee, dass Menschen möglichst viele Informationen für Entscheidungsfindung haben wollen, wurde schon früh angegriffen: durch Simon (Idee der boundet rationality, 1956) und Edwards (Menschen entscheiden nicht gemäss der Bayesschen Regel, 1962). Daraus ergab sich dann die Prospect Theory (Tversley & Kahnemann 1974), welche Kontexteinflüsse und Entscheidungs-Biases und -Heuristiken untersuchte
  2. Zu den Konzeptionen von bounded rationality sei vorab das Lense model von Brunswichs (korrekt?) wichtig. Die Darstellung dazu erschien mir etwas unklar.
  3. Aktueller Vertreter minimalistischer Konzeptionen ist u.a. Gigerenzer: Heuristiken als Ergebnis eines biologischen Selektionsprozesses, schnell, sparsam und robust und bestehend aus drei Komponenten: Suchregel, Abbruchsregel, Entscheidungsregel. Aber es ist nicht so klar, wie genau diese Toolbox aufgebaut ist.

Viele experimentelle Kontexte für Entscheidungsforschung beruhen auf einfachen Spielen oder Simulationen mit monetären Anreizen (Stockmarket-Simulations). Dazu gab es eine Reihe von Literatur (Anfordern!). Meine Frage: inwieweit wird der Einfluss normativer Theorien des decision makings auf das tatsächliche Entscheidungsverhalten untersucht?


29.04.08: Kolloquium Huppenbauer

Über aktuelle Konzeptionen von Menschenwürde. Grundsätzlich gibt es zwei Modellansätze: Relevanz von (natürlichen) Eigenschaften für die Zuschreibung von Menschenwürde und Menschenwürde als Ausdruck von Selbstverhältnissen:

  1. Eigenschaftsorientierte Konzeptionen betonen, dass Menschenwürde ein moralischer Wert ist, der bestimmten Wesen zukommt - es stellt sich demnach die Frage, welche Eigenschaften Kriterien für die Zuschreibung sein sollen. Genannt werden u.a. Rationalität, Zeitbewusstsein, Selbstbewusstsein, Autonomie, Personalität (durchaus auch nicht-empirisch verstanden, z.B. im Sinn von Kant). Dieser Ansatz stellt das besondere Problem was zu tun sei, wenn die Eigenschaften noch nicht oder nicht mehr vorhanden sind. Hier kommen SKIP-Argumente (Spezieszugehörigkeit, Kontinuität, Identität, Potentialität) zum Einsatz. Die damit verbundenen Schwierigkeiten (u.a. aufgebracht von Singer) sind wohlbekannt: Speziezismus, Paradoxien der Potentialität, Redundanz (auch ohne Würdezuschreibung gibt es moralische Schutzmechanismen).

  2. Auf Selbstverhältnisse beruhende Konzeptionen betonen Aspekte wie Selbstachtung (was auch mit dem besitz von dafür notwendigen Fähigkeiten und Eigenschaften einhergeht) und plädiert auf einen Anspruch, nicht erniedrigt zu werden. Erniedrigen heisst den Anspruch negieren, ein eigenständiges Wesen zu sein. Insofern ist das keine rein Individuums-zentrierte Position: d.h. man kann erniedrigen, auch wenn sich das Opfer selbst nicht unbedingt erniedrigt fühlt (z.B. Foltern starker Persönlichkeiten), bzw. man unterscheidet Selbstachtung und Selbstwertgefühl. Das Problem der Eigenschaften wird damit aber nicht ganz vermieden (d.h. Umgang mit Menschen, die die Fähigkeit zur Selbstachtung verloren haben).

Ein Gedanke: moral agency ist eine agency in zwei Welten und es stellt sich demnach die Frage nach den (expliziten und impliziten) brücken zwischen diesen beiden Welten.


22.04.08: Kolloquium Huppenbauer

Die Position von Fischer zu Menschenwürde wird dargestellt. Hinweise auf Unterscheidungen (kontingente vs. Inhärente Würde) und historische Wurzeln (Gottesebenbildlichkeit, Kants Konzeption, Menschenwürde als Funktion gewisser Eigenschaften, z.B. Fähigkeit zur Selbstachtung). Fischer argumentiert von einem partikularistischen Standpunkt aus: prüfe wie ethische Begriffe/Normen als solche Bedeutung gewinnen in sozialen Handlungskontexten, die ihrerseits kulturell unterschiedlich sein können (d.h. universalistischer Anspruch wird abgeschwächt, aber kein Relativismus, d.h. ethische Aussagen können Wahrheitsansprüche anmelden, deren Begründung ist aber sozial und kulturell gebunden. Daraus kann z.B. die Forderung nach der Schaffung von Erlebnisräumen folgen, um Verständnis für unterschiedliche soziale und kulturelle Formen des Zusammenlebens zu gewinnen).

„Mensch“ als nomen dignitatis, als ein thick concept, das eine beschreibende und wertende Komponente beinhaltet – und „Menschenwürde“ bezeichnet die wertenden Komponente im sozialen Begriff „Mensch“ (d.h. die Bedeutung, die einem Menschen innerhalb der Sphäre menschlicher Sozietät zukommt). Man muss demnach zwischen einem biologischen und einem sozialen Begriff von „Mensch“ unterscheiden. Der biologische Mensch ist subsumptiv (d.h. es ist ein Set von Regeln angebbar, das den Begriff „biologischer Mensch“ definiert). „Sozialer Mensch“ ist ein assoziativ gebildeter Begriff, d.h. die damit verbundenen Prädikate (z.B. „Menschen dürfen nicht grausam behandelt werden“ – „grausam“ ist nicht regelhaft definierbar, sondern enthält beschreibende wie wertende Komponenten, d.h. ein thick concept im Sinn von Bernard Williams). Diese Komponenten bestehen auch aus den Vorstellungen, welche sie bei den Personen wecken. Menschenwürde artikuliert die normativen Komponenten des sozialen Begriffs „Mensch“ und ist damit kein relationaler Begriff mehr und bezeichnet auch keinen „intrinsischen Wert“, sondern ist immer an das Individuum gebunden (deshalb ist es auch ein Problem, wenn man Menschenwürde zu einer Art „Klassenbegriff“ machen will, Anwendbar auf Tiere oder Pflanzen – man beachte auch, dass die „Würde der Kreatur“ eine klar religiöse Komponente hat).

Damit einher geht auch die Unterscheidung zwischen der natürlichen und sozialen Welt: in letzterer spielen Achtung und Anerkennung eine wichtige Rolle, d.h. Begriffe wie „Mensch“ (oder auch „Ritter“) gewinnen ihre soziale Bedeutung in sozialen und quasi öffentlich vollzogenen Handlungen mit einem gewissen Ritualcharakter (z.B. Ritterschlag), womit auch eine Form von sozialer Wahrnehmung einhergeht. Natürliche Welt ist aber insofern wichtig, als dass biologische Eigenschaften Indikatoren für die Zurechnung sozialer Eigenschaften sind (wie genau ist eigentlich der Zusammenhang zwischen biologischen und sozialen Eigenschaften, Analytisch kann man immer von kategorialen Unterschieden sprechen, die letztlich Ausdruck der Definition der Begriffe sind – Definition verstanden als Festlegung eines Sets von Prädikaten, die einem Begriff zugeordnet werden. Sind zwei solche Mengen disjunkt, sind die den Mengen zugeordneten Begriffe kategorial verschieden). Natürlich können solche Indikatoren wechseln, wie das am Beispiel der Debatte um die Würde von Embryonen gezeigt werden kann. In diesem Kontext ist auch die Naturalisierungsdebatte zu führen: was passiert, wenn biologische Eigenschaften plötzlich soziale Eigenschaften werden (indem sie in das System von Achtung und Anerkennung geraten)?

Kurz noch zu den Menschenrechten. Fischer vertritt die Ansicht, dass Menschenwürde in seinem Verständnis auch Menschenrechte begründen (freilich gebunden an unser kulturelles Verständnis von Menschenrechten). Menschenrechte implizieren Pflichten und sind damit Ausdruck eines Anerkennungsverhältnisses, denen auch die Menschenwürde zugrunde liegt.


21.04.08: Seminar Evolution der Moral

Nur wenige Bemerkungen zum Paper „Immorality from Empathy-induced Altruism“: Beispiel einer guten psychologischen Untersuchung von moralischem Handeln. Akzeptable Definitionen von Empathie, Altruismus (hier fehlt aber insbesondere der Kostenaspekt) und Moral. Interessantes zweistufiges Vorgehen zum Ausloten der verschiedenen Konzeptionen von Gerechtigkeit – werde das Paper sicher verwenden. Eine Fragestellung, wie man weiterdenken kann: inwieweit glauben die Probanden eigentlich moralischen Rankings (daran muss man bei Experiment 2 ja glauben)?

Bemerkung von Daria: Altruistic punishment als Konzept seit den 1950ern bekannt. Und ein Gedanke zu ihren TMS-Studien: TMS blockiert Frontalhirn und damit entfalle die Kontrolle des Eigennutzes. Doch eventuell geht es ja um die Kontrolle der Freude, anderen zu geben (kann ja auch eine Motivation sein). Denke mehr darüber nach.


15.04.08: Kolloquium Huppenbauer

Erste von drei Vorlesungen zum Begriff Menschenwürde. Hier zunächst einmal Begriffsbestimmung und historischer Kontext. „Menschenwürde“ war lange Zeit kein zentraler Begriff der Ethik, seine Bedeutung stieg im Anschluss an die historischen Erfahrungen mit den totalitären Systemen des 20. Jahrhunderts und der daran anschliessenden Erklärung der Menschenrechte durch die UNO (und anderen Verfassungen, wie z.B. des deutschen Grundgesetzes. Sechs Grundintuitionen des Begriffs Menschenwürde:

  • Verweist auf ein hohes ethisches Gut, das unveräusserlich und nicht abwägbar ist
  • Würde kommt allen Menschen zu, was aber einher geht mit bestimmten anthropologischen Vorstellungen des Menschen
  • Menschenwürde ist eine normative Eigenschaft, die verletzt werden kann (im unterschied zu moralisch relevanten Eigenschaften)
  • Unterscheide kontingente Würde (expressive, soziale und ästhetische Würde) von inhärenter Würde, letztere ist unverlierbar.
  • Enger begrifflicher Zusammenhang zwischen Menschenwürde und Menschenrechten.
  • Differenz von Tun (Menschenwürde verletzten) und Unterlassen (Menschenwürde nicht beachten) spielt (evt.) eine Rolle.

Ursprünglich wurde der Würdebegriff als Statusbezeichnung verwendet (aristokratisch, rollen- oder ämterspezifisch) und ging mit besonderen Rechten und Pflichten einher. Im 20. Jahrhundert wurde dann die Tabuisierungs- und Schutzfunktion (für alle Menschen) hervorgehoben (als Korrektiv für technologisches oder politisches Handeln, d.h. primär eine Verbotsfunktion). Einige wichtige historische Kontexte sind:

  • Theologisches Paradigma der „Gottesebenbildlichkeit“. Sonderstatus des Menschen in seiner Beziehung zu Gott und den anderen Geschöpfen (relationaler Begriff). Ein von Gott dem Menschen verliehenes Prädikat.
  • Philosophisches Paradigma des Menschen als „wertvollstes“ Lebewesen qua Vernunftbegabung. Kant ist hier natürlich zu nennen mit den wichtigsten Stichworten: Vernunftwesen sind mit Autonomie begabt und haben deshalb Würde, dürfen deshalb nicht (vollständig) instrumentalisiert werden, Würde im Gegensatz zum (verrechenbaren) Preis, Würde als Gegenstand von Achtung.

Diverse damit aufgeworfene Probleme sind: Speziezismus (warum Mensch auszeichnen?), evt. zu weitgehendes Würdeverständnis von Kant (sind alle Instrumentalisierungen verwerflich?), Verrechtlichung des Würdebegriffs (im Zug der Menschenrechte, was ist die Begründungskraft von Menschenwürde?), praktische Konsequenzen von Menschenwürdeverletzungen (wie mit den Verletzern umgehen? Wie mit Staaten umgehen die Menschenwürde verletzen? Menschenwürde an den „Rändern“ des Lebens?), diverse skeptische Einwände (wie z.B. Hoerster: inflationärer und ideologisierter Gebrauch).


12.04.08: Von Monakow Zyklus

Nur wenige Fragen, die mir bei den Vorträgen von Urs Fischbacher und Daria Knoch gekommen sind (Thematik ist mir wohlbekannt). Die Operationalisierung des Verantwortungsbegriffs durch Fischbachers Delegations-Spiele sollte auch die Erwartungen hinsichtlich des Verhaltens desjenigen, an den die Entscheidung delegiert wird, beachten. Kurz zum Spiel: Ultimatumsspiel mit Spieler A, B, C. Man untersucht Bestrafung unfairer Angebote von A bzw. B an C (wobei: wenn B entscheidet hat A den Entscheid an B delegiert). D.h. man sollte zwei Zusätze beachten: Wie ändert Bestrafung, wenn A Wissen hinsichtlich des Entscheidungsverhaltens von B hat? Wie ändert Bestrafung, wenn A Wissen über B’s Entscheidungsverhalten haben sollte (d.h. Aufwand hat das Wissen zu erhalten, den er nicht immer auf sich nimmt)? Dann noch meine Frage, inwieweit diese Forschungen den klassischen homo oeconomicus unterminieren – schliesslich kann dieser ja auch moralische Präferenzen rational maximieren. Fischacher: dies ist in der Tat eine mögliche Sichtweise.


10.04.08: Einführungs-Vorlesung von Helbing

Auch hier nur einige Bemerkungen: eine sehr schöne Übersicht, wenngleich etwas der rote Faden gefehlt hat. An sich gefallen mit die Analogien zur Physik (Phasenübergänge etc.) sehr gut, wenngleich man an manchen Analogien je nach Kontext noch arbeiten müsste (darin besteht z.T. ja auch die wissenschaftliche Aufgabe). Umfassende Beschreibung der Aspekte, welche soziale Systeme komplex machen (viele Variablen, Heterogenität, unklar, welche Variablen relevant sind, nichtlineare Interaktionen, Beobachter-Abhängigkeit, Einfluss von intentionalen Faktoren wie Meinungen etc. sowie technische, finanzielle und ethische Grenzen für das Durchführen von Experimenten. Deshalb macht es ja auch Sinn, mit einfachen Systemen anzufangen (Fussgänger, Verkehr). Er ist in der Tradition einer sozialtechnologisch orientierten Soziologie: Compte etc., d.h. soziologische Theorie soll zur Konstruktion von Gesellschaft genutzt werden. Grundproblem: an welchen Zielvorstellungen orientiert sich diese Konstruktion, bzw. die Generierung der Zielvorstellung ist (nicht immer) auch Teil der Prozesse, die man untersuchen will. Hat was Zirkuläres.


10.04.08: Social Neuroscience Seminar

Wenige Bemerkungen zum Paper von Soelch. Beispiel, wie man es nicht machen sollte: Aussagen über Signifikanz und Nicht-Signifikanz (betr. Mood bei Rauchern, Nichtrauchern) erscheinen angesichts der Grafiken unplausibel wenn nicht falsch. Es fehlen Error-Bars, der Fit (Fig. 3) ist abenteuerlich (und auch nicht angepasst an die Geldbeträge), skala wechselt prötzlich von -5 bis 5 auf 0 bis 10, Figuren enthalten unsinnige Skalennummern an den Achsen (ein Detail – zeigt aber unsorgfalt), die zentrale zu diskutierende Region (Striatum) wird vorgängig in den Tabellen gar nicht genannt (sondern nur Teile davon), etc.


03.04.08: Social Neuroscience Seminar

Nur ganz rudimentäre Ideen zu den zwei Papers von Skuse Erstens: ich denke, dass der rasche Pathway (60 ms bis Amygdala-Aktivierung) nicht von einem sozialen Stimulus aktiviert wird – der Stimulus wird erst durch einen kognitiven Prozess überhaupt als sozial klassifizerbar (z.B. um fear von surprise mittels Gesichter bzw. den weit aufgerissenen Augen unterscheidbar zu machen). Er sagt ja selbst, dass der Kontext zentral ist um das soziale dieser Stimuli zu erkennen (zudem bleiben Begriffe wie social knowledge, emotions etc. notorisch undefiniert). Dann noch das review-Paper zu den X-Chromosom bezogenen Genen – interessant, lies das Paper dazu.


01.04.08: Social Systems Seminar

Lorenz über Fostering Consensus in Continuous Opinion Dynamics. Kontinuierliche Meinungen sind z.B. Preise, Politische Ansichten, Ratings, Schätzungen (also kein binäres Ja-Nein). Ganz kurz zu den Modelle: Haben alle letztlich fixe Distanzfunktion (agents auf Einheitsintervall, epsilon-Umgebung definiert ob Konsens oder nicht, Iteration über viele Zeitschritte, Möglichkeit, dass es agents mit unterschiedliche Epsilon-Umgebungen hat, z.B. open-minded agents). Ich würde andere Distanzfunktionen wählen und das im Paradigma des superparamagnetic clustering anschauen. Interessant wäre: Mache die Distanzfunktion zu einer Funktion der Dichte und Grösse der Cluster im Zug der Iteration, um soziale Prozesse wie Herdentrieb besser abbilden zu können. Dann noch zu multidimensionalen opinion spaces, interessant sind jene mit simplex-Struktur, die also ein constraint aufweisen (wie z.B. ein limitiertes Budget für drei Güter, hier bewegt man sich innerhalb eines Dreiecks). Kritik am simultaneous updating: das werde der realen sozialen Interaktion nicht gerecht.


19.03.08: Konferenz: Ethical Theory and Moral Practise

Musschenga: Einführung. Unter anderem: was ist moral practice? Unterschiedliche Antworten sind möglich: Konventionen, Vorurteile (nicht reflektierte Urteile), Sittlichkeit, eine Form von geübtem Verhalten. Und was ist/soll ethical theory? Möglichkeiten: Rationale Fundierung von Moral, unnötiges Theoretisieren, systematisches Reflektieren, Hilfsmittel für Dilemmata. Mögliche empirische Verbindungslinien zwischen Theorie und Praxis sind dann: evolutionäre Sichtweise, Frage nach den basic capacities für moralisches Handeln, Frage nach dem falsifizierenden Charakter von Fallstudien für ethische Theorien, sozialwissenschaftliche und psychologische Zugänge.

Birnbacher: Seine Grundfrage: was motiviert uns in moralischer Hinsicht, um uns für kommende Generationen zu motivieren? Grundsätzlich gibt es bezüglich das Motivationsproblem eine internalistische (z.B. Bernhard Williams) und eine externalistische (z.B. H.A. Prichard) Position: entweder müssen moralische Gründe auch motivierend sein, damit sie moralisch genannt werden können (motive internalis) – oder dies ist eben nicht der Fall, so dass man dann einen unabhängigen psychologischen Mechanismus für die Motivation finden müsste. Reihenfolge in der „Gründe-Mechanik“: Acceptance (etwas wird als Grund akzeptiert), Adoption (der Grund wird als etwas handlungswirksames internalisiert – Frage ist hier, ob das von acceptance unterschieden werden kann), Application (betrifft die Bedingungen der Anwendung des Handlungsgrundes), Action (das eigentliche Handeln). Auf die Zukunft gerichtete Handlungen kann auf den ersten drei Gliedern der Kette einwirken, wobei das Motivationsproblem verstärkt auftritt – verstanden als die Kluft zwischen der Motivation zukunftsgerichtete ethische Prinzipien zu akzeptieren, und der Motivation, danach dann auch zu handeln. Zur ersten Motivation: universalistisch orientierte Ethik hat keine Gründe, die Gegenwart zu bevorzugen, kommunitaristische Ethik an sich auch nicht (hier läuft eine mögliche Abgrenzung nur durch die in-group – doch auch hier wird an die Zukunft gedacht, evt. noch mehr als sonst. Aber dennoch besteht das Motivationsproblem. Es scheint: Verantwortung für die Zukunft braucht stärkere moralische Prinzipien als andere Formen von Verantwortung. Dies hat natürlich auch aussermoralische Gründe: Prognoseunsicherheit (Gültigkeit der Zukunftsmodelle, Unsicherheit hinsichtlich der Lösungsfindungswahrscheinlichkeit und der Kooperationswahrscheinlichkeit, Unsicherheit hinsichtlich der nichtintendierten Kontrolleffekte), Problem der Opportunitätskosten. Er unterscheidet dann drei Arten von Motiven: moralische Motive (Pflichten), quasi-moralische Motive (z.B. Altruismus, Liebe, Solidarität), nichtmoralische Motive (z.B. Selbstrespekt, Selbstbild – bin hier über den nichtmoralischen Charakter nicht sicher, den diese Motive bemessen sich ja oft an moralischen Normen) – letztere seien nicht Zukunftstauglich (Frage, inwieweit Wertschätzung nach dem Tod durch die Nachkommen während des Lebens ein Motiv sein kann – über längere Generationen nur für die Wenigsten). Birnbacher meint, dass die indirekten Motive wohl am interessantesten sind: Idee der chain of love (Passmore; durchaus Plausibel, es gibt mehrere Studien welche Zeigen, wie gewisse erlebte Verhaltensweisen wie Grosszügigkeit sich in künftigen Populationen als stabil erweisen. Ich denke aber, mann muss dabei aber auch die aktuelle Reputation – z.B. in Mediendarstellungen – dieser Verhaltensweisen ansehen bzw. diese damit gewichten, um die Dynamik der Verteilung (wie viele künftigen Individuen haben diese Eigenschaft) zu verstehen), der Eigenwert von auf die Zukunft gerichteten Ziele (Vissert Hooft), Gruppenloyalität, Suche nach Lebenssinn (Partridge).

Nur kurze Gedanken zu den Einzelvorträgen (habe die relevanten Papers): Kihlbom: Was empirische Ethik untersuchen könnte: die subtilen Effekte und Einflüsse, welche „moralische Situationen“ mitbestimmen. Kalis: Interessantes Paper. Prüfe Haidt 2008. Was man bei diesen Studien immer fragen sollte: was würden die Leute antworten, wenn sie instruiert würden, dass sie ihre Antworten begründen müssten? Toft zum global altruism: Wie ist das Möglich? Mein Vorshclag Bereitschaft Fremden zu Helfen kann Reputation in in-group erhöhen und das könnte evolutionären Vorteil haben. Global altruism scheint mir nicht a priori unlösbar für einen evolutionären Ansatz zu sein. Weinberg: interessante Ideen zu moralischen Experimenten.


15.03.08: European Spring Event on Neuroethics 2008

Erster Vortrag durch mich, dann drei weitere Vorträge. Zuerst Brüntrup zur Frage, inwieweit die heutigen Resultate der Neurowissenschaft eine Provokation für die Philosophie des Geistes darstellen soll (beispielsweise im Sinn, dass sie die Philosophie ersetzen oder besser vermögen, die gestellten Fragen zu lösen). Das aber unter dem Wahrheitsanspruch der Philosophie: wahr in allen möglichen logischen Welten (warum dieser Anspruch, ist aber eigentlich nicht so klar. Was macht man z.B. mit den begrifflichen Unmöglichkeiten (eckige Kreise), welche Zen-Mönche als Meditationstechniken anwenden und schliesslich auch verstehen können). Er sieht drei Problemkomplexe: Mentale Verursachung, Willensfreiheit, Erklärung des Bewusstseins. Seine These ist einfach (und richtig): Die heutigen durch die (manche) Neurowissenschaften vertretenen Antworten sind philosophische Interpretationen von empirischen Fakten. Andere philosophische Antworten auf diese Fakten sind ebenfalls mit den empirischen Fakten kompatibel (fragt sich natürlich: in welchem Grad? Empirische Fakten dürften hier immerhin Plausibilisierungselemente sein). Die Provokation ist deshalb wohl eher auf dem common sense Niveau (doch das hat auch Konsequenzen, die hier aber nicht Thema sind). Zu den drei Komplexen:

  1. Mentale Verursachung. (Eine) These der Neurowissenschaften: „the brain does all the work“. steht vor dem folgenden Trilemma (d.h. immer nur zwei von drei der folgenden Aussagen können wahr sein): Erstens, die physikalische Welt ist kausal geschlossen (Eine Standardannahme vorab von Biologie, Unsicherheit wegen Quantentheorie. Gegenstrategie (z.B.): der Dualismus ist wahr. Problem: Interaktion völlig uneinsichtig). Zweitens, wegen der kausalen Geschlossenheit der Welt können mentale Entitäten nicht verursachend wirken (unsicher ob richtig abgeschrieben. Gegenposition: z.B. Identitätstheorie, d.h. mentale Entitäten sind mit physikalischen Entitäten identisch – bestimmte Gedanken sind bestimmte Hirnzustände. Problem: metaphysische Zombies – was man evt. mit type-token-Identitätstheorien aufgreifen könnte. Drittens, mentale Entitäten sind kausal effektiv (eine Alltagserfahrung. Gegenstrategie: z.B. Abstraktionismus, mentale Entitäten sind nur eine Abstraktion, existieren aber nicht (d.h. Reduktion des Existenzbegriffs). Problem: wer abstrahiert?).

  2. Willensfreiheit. These der Neurowissenschaft: Gibt es nicht. Das Trilemma hier: Erstens, jede menschliche Handlung ist letztlich durch ein Ereignis konstituiert, das nicht der Kontrolle des agent unterliegt (Gegenposition: Determinismus angreifen. Problem u.a.: downward causation kaum verstehbar). Zweitens, freie Handlungen können nicht durch ein Ereignis konstituiert werden, das nicht unter der Kontrolle des agent ist (Gegenposition: Bestreiten, dass es einen Zusammenhang zwischen Determinismus und Willensfreiheit gibt, Kompabilitismus (Dennett). Problem: Intuitiv unverständlich.). Drittens, es gibt freie menschliche Handlungen (Ist eine Alltagserfahrung. Gegenposition: das gibt es nicht, Determinismus. Problem: dafür gibt es zu wenig empirische Belege). Eine Ideenskizze: Man sollte die Determinismusfrage relativ zum coarse graining des Zustandsraums verstehen. D.H. agent ist eine Trajektorie im Zustandsraum. Zustandsraum hat Struktur, d.h. bestimmte Bereiche determinieren auf eine bestimmte Weise (z.B. als trap) Es gibt eine lokale Umgebung um den Punkt, wo Determinismus nicht operiert, d.h. zugänglich für eine lokale Freiheit (deren Natur gilt es noch zu klären – z.B. Drift-Effekte je nach Ort im Zustandsraum einbauen). Das gibt dem agent eine relative Freiheit sich im Zustandsraum zu begeben. Natur der Freiheit: Man kennt den Zustandsraum (global - zumindest teilweise. Frage: woher hat der agent diese Kenntnis?).

  3. Bewusstsein. These der Neurowissenschaft: Komplettes Wissen über Hirnzustand ermöglicht komplettes Wissen über alle mentalen Phänomene (Standardbeispiel: farbenblinde Hirnforscherin Mary). Trilemma hier: Erstens, Wissen über phänomenale Bewusstseinsaspekte ist identisch mit Wissen über das physikalische Gehirn (Gegenstrategie: das verneinen, Eigenschafts-Dualismus à la Chalmers. Problem: wie ist dann die Relation). Zweitens, Es ist unmöglich dass Wissen über das physikalische Gehirn Wissen über phänomenale Aspekte logisch enthält und beide auf identisches Wissen referieren (richtig erfasst? Gegenposition: zwei Arten der Repräsentation à la Churchland – doch ist das nicht doch ein Dualismus). Erstperson-Wissen über phänomenale Aspekte des Bewusstseins ist logisch nicht enthalten im physikalischen Drittpersonwissen über das Gehirn (Gegenposition: es ist enthalten – doch wie soll das gehen? Zombie-Welt ist denkbar).

Von der Malsburg (der das Frankfurt Institute of Advanced Studies in Richtung Erklärung der Organisation der Gesellschaft führen will) zum human group instinct – ein Vortrag, der viele Fragen offen liess. Sein Grundproblem: Gruppenzwang und -gewalt (Beispiele: Milgram- und Stanford-Prison-Experiment, Genozide, Hanna Ahrends Totalitarismus-Theorie). Er will eine Art „Feuermelder“ für solche Ereignisse. Man solle endlich die „Natur des Menschen“ (welche diesem Verhalten unterliegt) endlich in dieser Hinsicht untersuchen (zu behaupten, das man das bisher nicht tue, ist Unsinn). Eine (evt. nicht korrekt verstandene) Kritik an Ethikkommissionen (welche die Erforschung solcher Phänomene à la Milgram verbiete) und an der political correctness (welche das Ansprechen solcher Probleme verbiete – erscheint ebenfalls unsinnig und wird von ihm zudem später als positiver Mechanismus für das Verhindern negativer Ausprägungen des group instincts bezeichnet). Dann zu diesem group instinct, den er nicht präzise definieren kann und will (meine Interpretation: er meint damit wohl eine Art soziale Synchronisation in Analogie zu seinen Hirn-Arbeiten). Trotzdem solle man die Existenz eines group instincts akzeptieren. Und dann beginnen die Probleme: group instinct sei natürlich auch Basis (positiver) Kooperation. Man könne seine Referenz-Gruppe wählen (Mechanismus dieser Wahl in seinem „Theorie“-Kontext unklar), zwischen der Bildung und der Gruppen und deren negativen Handlungen ist eine grosse von ihm weitgehend ignorierte Spannweite (siehe moderne Genozid-Forschung: Massaker werden von kleinen Minderheiten umgesetzt), er will eine Art „Weltpolizei“ die beim Anschlagen der „sozialen Rauchmelder“ interveniert (aber auch unter Benutzung des group instincts, man denke an Dinge wie Korpsgeist in der Polizei – braucht es), dann verweist er auch auf die Pinker-Studie (abnehmende Zahl der Gewaltopfer im Verlauf der letzten Jahrhunderte), was mit seinen Anfangs-Schreckenszenarien und der Idee, das Problem werde durch die Bildung von Nationen verschärft, widerspricht. Als Grundübel bezeichnet er schliesslich eine „Protagoras-Orientierung“ (der Mensch als Mass aller Dinge – da bin ich überdies unsicher, ob er Protagoras in dieser individuellen Form korrekt interpretiert) zentraler Konzepte: Wahrheit (ist nur gültig, wenn das Individuum das versteht – doch es gebe „überindividuelle Wahrheiten“), Statistik (hab ich das korrekt verstanden? Idee der Mittelbildung über Individuen verpasst komplexere Strukturen – das stimmt und das weiss man auch), Verneinung emergenter sozialer Strukturen (aber das stimmt doch nicht), nur individuelle Werte (auch das ist Unsinn – man denke beispielsweise an Solidarität). Dann wird es sehr unklar wenn er in die Richtung geht, man solle „organismisch“ denken. Idee des Neurons und des Gehirns – Sprache als emergentes Phänomen des Gehirns, entsprechend gebe es emergente soziale Strukturen (gewiss). Normative Folgerung (in etwa): Man solle sich als Teil eines Ganzen begreifen (das man aber nicht wirklich begreifen könne). Hier wird es nicht nur unverständlich, sondern auch gefährlich (auch wenn man die Hitler-Karte eigentlich nicht spielen sollte: solche Gesellschaftskonzepte zeichnen totalitäre Systeme aus). Aufgrund seiner Ausführungen ist unverständlich, wie man denn über das sprechen, forschen und diskutieren soll, das über den Horizont des Individuums hinausgeht (entsprechend seiner Hirn-Analogie: Neuronen können nicht über die emergenten Eigenschaften, die sie produzieren, sprechen).

Georg Achter über die Idee der Willensfreiheit in der Theologie (nur kurz und nur über die theologischen Aspekte): Wichtige Unterscheidung hinsichtlich des Referenzobjekts des Willens: Wahl (gedanklich) und Tun (Einwirken auf die soziale Welt). In der Theologie wurde die Diskussion nicht über die Frage der Determinierung durch Naturgesetze geführt, sondern hinsichtlich der Frage, ob und wie Gott Willensfreiheit zulässt – die Diskussion ist also viel älter und evt. auch typisch westlich, wo der Kommando-Gott auf die Bühne getreten ist (in China gebe es z.B. diese Diskussion historisch gesehen nicht). Grundproblem der Willensfreiheit in der Theologie: warum entscheidet sich der Mensch bewusst gegen das Falsche? Hierzu gibt es vier Konzeptionen:

  1. Diskussion basierend auf der antiken Tradition (jetzt griechisch-orthodox): Problem der Willensfreiheit sei nicht durch die Frage, was Gottes Wille sei, betroffen. Im Gegenteil. Gott gab dem Menschen den freien Willen, so dass dieser moralische Entscheidungen treffen konnte (Gegenposition zum Perser Mani (216-176 v.C. – korrekt?), der hierzu eine rein deterministische Ansicht hatte. Materie habe moralisch gute und böse Eigenschaften, je nach Mischung im individuellen Menschen überwiege das eine oder das andere – da könne man nicht tun).
  2. Pelagianismus (Mönch Pelagius, starb 418). Mensch ist grundsätzlich gut und hat durch den freien Willen die Möglichkeit, sich selbst zu retten. Christus hat diesbezüglich keine besondere Funktion.
  3. Katholische Position: Mensch ist an sich frei und seine Natur ist gut, aber es stellt sich das Problem der Sünde. Christus operiert hier als moralischer Lehrer. Zudem braucht es Gottes Gnade, damit der Sünde (die im faktischen Leben immer wieder auftauchen wird) überwunden werden kann.
  4. Protestantische Position: Der Mensch ist schlecht, durch die Sünde verdorben und er hat keinen freien Willen. Gottes Gnade (via Christus) ist für die Rettung des Menschen absolut notwendig. Es ist vorbestimmt, ob der Mensch Gottes Gesetze befolgen kann oder nicht. Gott gab die Gesetze damit die Menschen sehen, dass sie unfrei sind, den Gesetzen nicht gehorchen können, sich nicht selbst retten können und deshalb Gottes Grade bedürfen.

11.03.08: Kolloquium: Huppenbauer

War nicht da, eine kurze Zusammenfassung aufgrund der Slides, etwas anders strukturiert. Thema war intergenerationelle Gerechtigkeit. Fragen, die hier eine Rolle spielen:

  1. Variante 1: Handeln jetzt hat Auswirkungen auf die Zukunft. Haben die künftigen Generationen Rechte betreffend Auswirkungen bestimmter Handlungen von heute (es soll ihnen besser gehen, es darf ihnen nicht schlechter gehen) – d.h. gibt es eine mit solchen Rechten korrespondierende Verantwortung? Was ist der Gegenstand dieser Verantwortung: Verteilungen von Gütern, Kosten? Wie lässt sich diese Verantwortung operationalisieren: Prognosehorizont (muss dieser verbessert werden – Pflicht, die Zukunft besser steuern zu können. Ein interessanter Gedanke, weiter nachdenken), Generationenverträge (z.B. Sozialversicherung)
  2. Variante 2: Zustand jetzt ist Resultat vergangener Handlungen. Sind aktuelle Ungleichheiten als Resultat früherer Ungerechtigkeiten anzusehen? Und wenn Ja. Was folgt daraus? Entschädigungen? Lasten für Handeln in die Zukunft neu verteilen (z.B. Klimawandel: das sei eine Angelegenheit nur der reichen Staaten)

Mehr zur ersten Variante. Einer der grundlegenden Ansätze: künftige Generationen haben Interessen, wie soll man diese wahren. Nichtschädigungsgebot – kann egalitaristisch (Idee: Man definiert Schwellenwert basierend auf Jetzt-Zustand (= Kapital, z.B. als Durchschnittswert) und: „man darf nur von den Zinsen leben, nicht vom Kapital“, denn Unterschreitung des Kapitals wäre Schädigung) oder non-egalitaristisch (es gibt nur einen absoluten Schwellenwert) verstanden werden. Grundproblem: woher will man wissen, ob die Interessen die gleichen sind (ausser bei existenziellen Aspekten – deshalb die Idee des sufficiency-Treshhold)? Daraus erwuchs dann die Idee, die Zukunft so zu gestalten, dass menschliches Leben unter Wahrung möglichst vieler Optionen möglich ist (braucht dann Begründungen dafür, warum es gut sei, dass es weiterhin Menschen gibt).

Ein zentraler Begriff in der heutigen Debatte: Nachhaltigkeit (aber ebenfalls ein vielgestaltiger Begriff, Probleme durchaus analog wie bei früheren Debatte – also wie umgehen mit Adaptionsfähigkeit von Menschen?. Und auch hier dann die Idee der Erhaltung einer multioptionalen Zukunftsfähigkeit). Und diese Optionen sind durchaus auch Ergebnis der erstaunlichen Wertschöpfung der vergangenen Jahrzehnte (Jahrhunderte). Die Idee, alles in Zahlen (Monetarisierung) zu fassen ist auch nicht unproblematisch – z.B. das Problem der Diskontierung künftiger Schäden, was überhaupt erfassbar ist, wie die Bewertung stattfindet, und wie hoch die Schuld sein soll.


10.03.08: Seminar „Evolution der Moral“

Textbasis ist das erste Kapitel von R. Joice’s Buch „The Evolution of Morality“ (MIT 2006). Mache keine grosse Zusammenfassung dazu (lies das Buch). Ein Aspekt in der Diskussion: Unterscheide zwei Formen von Altruismus: psychologischer und biologischer Altruismus – ersterer braucht die Absicht, zum Wohl des Anderen zu handeln. Handeln zum Wohl der Reputation wäre nicht altruistisch. Doch stimmt das? Reputation ist ein komplexes Phänomen und beinhaltet sicher sowohl ein Selbstbild wie auch ein Fremdbild. Ist ein Handeln zur Erfüllung der Ansprüche an sich selbst (auch eine Form von Reputation) nicht altruistisch? Und wie steht es eigentlich mit den Ansprüchen von Aussen, welche die Fremdwahrnehmung bestimmen? Auch das sind doch eventuell gut begründete Ideale – und ein Ausrichten an diesen ist nicht altruistisch? Es scheint: nicht jedes Handeln zwecks Verbesserung der Reputation ist unaltruistisch. Zudem: wie sich Absichten empirisch zugänglich? Evt. in einer bestimmten Gesamtheit von kohärenten Verhaltensweisen. Und: Wie entstehen normative Entitäten in der Evolution? Haben sie den Status eines Ideals, das sich quasi als soziale Entität bildet? Derzeit keine Antwort dazu. Und noch was: Suche das neue Science Paper von Fehr, Gächter etc.


04.03.08: Tagung Hirnforschung und Recht

Marcel Senn: Zu den Bedingungen der rechtlichen Sicht auf die Problematik. Erstens ist der freie Wille so etwas wie ein Axiom des Rechtssystems. Zweitens ist aber auch die körperliche Bedingtheit und Begrenztheit des freien Willens klar. Er wendet sich gegen das Argument, dass aus der Bedingtheit des freien Willens durch Gehirnprozesse die Nichtexistenz des freien Willens folgen soll (die Frage ist dabei, inwieweit auch dieses Bild der „Gegner“ des freien Willens eine Strohpuppe ist). Rechtssystem basiert auf den Grundkategorien Person – Sache – Handlung. Dann einige historische Anmerkungen zum Menschen als „Tier, das zur Gesellschaft taugt“ und dem Menschen als das Abbild des „superautonomen Gottes“. Im Recht kristallisierte sich dann gewissermassen diese Idee der Autonomie normativ aus – übrigens mit klar positiven ökonomischen Konsequenzen (Gesellschaften mit einem Rechtssystem, das die Autonomie voraussetzt, sind wirtschaftlich erfolgreicher – müsste man wohl genauer prüfen). Dann folgt eine historisch-kritische Untersuchung der Hirnforschung unter dem Blickwinkel des Themas freier Wille (ist ja nicht erst heute diskutiert worden). Beispiel: Das Gehirn von Lenin, das im Kontext der Elitegehirnforschung (Hagner) untersucht wurde – also unter einem klar von aussen gegebenen Ziel. D.h auch in der kulturellen und sozialen Welt hat es kausal wirksame Entitäten. Dann eine Analyse der Argumentation von Singer (da gibt’s in der Tat viel zu kritisieren). Warnung: Ergebnisse der Wissenschaft sind immer auch Ergebnisse der Menschen, die sie betreiben. Jedenfalls sind die Resultate der Hirnforschung zur Thematik freier Wille & Co. derzeit zu unstabil, um daraus grosse Änderungen für das Rechtssystem ableiten zu wollen. Man erinnere sich an frühere Fehlentwicklungen wie die Idee des „geborenen Verbrechers“ und die Eugenik. Man frage sich zudem auch: warum ist eigentlich immer der Straftäter (Gewaltverbrecher) das bevorzugte Target dieser Diskussionen – es gibt ja auch andere Straftaten. Warum untersucht man nicht einmal die Richter?

Daniel Hell: auch mehr zur kulturellen Bedingtheit der Wissenschaft und ihrer Resultate – diesmal am Beispiel von Eugen Bleuler und anderen Varianten eines strikten Determinismus (darunter auch die Idee der sozialen Determination). Bleuler: „Der Defekt der moralischen Gefühle ist eine Krankheit im gleichen Sinne wie angeborene Taubheit. Es ist selbstverständlich, dass ein Mensch mit ungenügenden oder ganz fehlenden moralischen Gefühlen nicht moralisch handeln kann.“ (in einem Gutachten von 1921 über einen mehrfachen Betrüger). Bleuler hatte keinen Niederschlag in der Rechtsordnung gefunden. Hinweis darauf, dass sowohl ein strikter Determinismus wie auch ein strikter Indeterminismus an der Alltagserfahrung unserer eigenen Handlungen scheitert. Hinweis auf den Kategorienfehler (Bieri und andere): Das Gehirn ist der falsche logische Ort für Freiheit und Unfreiheit – deshalb ist das Gehirn kein agent. Delinquenz muss man ausdifferenzieren: Struktur-Anomalien im Gehirn und soziale Aspekte stehen in einer gegenseitigen Bedingtheit (u.a. Rückkopplung- und Verstärkungseffekte – das ist eigentlich empirisch untersuchbar). Man kann eine Straftat nicht allein auf einen biologischen Marker zurückführen – geschweige denn voraussagen (aber begünstigende Tendenz voraussagen kann man). Dennoch ist absehbar, dass Richter vermehrt mit neurologischen Befunden konfrontiert werden – wobei man damit aber seelische Entwicklungen nicht verstehen kann. Man darf demnach solche Befunde nie isoliert ansehen, sonst läuft man Gefahr, Menschen aufgrund statistischer Befunde (denn die Klassifikation von solchen Befunden basiert auf Statistiken) präventiv überwacht oder einsperrt. Der Richter würde auch seine Verantwortung verlieren, wenn er nur noch deterministische argumentiert.

Gerhard Roth: Einige Präzisierungen zum bisher gezeichneten Bild der Hirnforschung: Sie klärt nicht, ob es einen freien Willen gibt oder nicht, sie vermag lediglich, bestimmte Argumente in dieser Debatte zu stützen oder zu schwächen. Zudem würde selbst eine Aufgabe der Idee einer starken Willensfreiheit (Alternativismus) das Strafrecht nicht ändern. Kritisch betrachtet werden müsse aber der Begriff der Schuld. Dann seine Idee des Alternativismus (X kann A oder B tun unter identischen Umständen – vertritt das wirklich jemand so?), welche das strafrecht offenbar vertreten soll (das Zitat Wessel/Beulke (?) ist aber gar nicht so klar in diese Hinsicht zu lesen). Was ihn interessiert: Gründe brauchen motivierenden Charakter – woher kommt dieser? Gewaltstudie von 2005 (Lück, Strüber, Roth, Delmenhorster (Namen?)) zeige zahlreiche Einflussfaktoren (Determinanten) wie u.a. Geschlecht, Alter, Sozialisierung, Hirnschädigung, Hormone etc. – einige davon korrelieren Stark mit Gewaltverhalten, so ein tiefer Serotonin-Spiegel (u.a. aufgrund Drogenmissbrauch der Mutter, früher sexueller Missbrauch oder frühes Erleben von Gewalt in der Familie). Dazu fänden sich bei den meisten Gewalttätern Störungen in der Amygdala und im Präfrontalkortex: Er sagt: 80-90% der Personen mit solchen Merkmalen würden straffällig (Bezugsgruppe genauer klären!) – früher nannte er doch noch tiefere Zahlen (ca. 1/3), so meine Erinnerung. Was kann man nun tun? Therapie? Realität im deutschen Strafvollzug: es gibt entweder keine Therapie oder man überprüft nicht, was sie bringt oder sie sind widersprüchlich. Darin sieht er das Problem – man bestraft Personen, die nicht schuldfähig sind und schaut auch nicht, wie man das verbessern kann. Ein Gedanke von mir: Forschungen von Fehr etc. behaupten, dass altruistic punishment für die Stabilität von Sozialsystemen bedeutsam ist (und das wird jetzt ja auch neurowissenschaftlich unterlegt) – dann gäbe es ja einen durch die Hirnforschung quasi gestützten Grund Unschuldige zu strafen.

Brigitte Tag: Ein historischer Rückblick zur Bedeutung der Strafe vom Prinzip „Auge um Auge“ zur Idee der Besserung bis hin zur Idee, man solle kein fixes Strafmass geben (ist gescheitert, weil Straftäter keine Perspektive hatten). Hinweise auf die methodischen Schwierigkeiten einer auf Bildgebung basierenden Hirnforschung (dazu auch Hinweis auf die TA-Studie – kenne viel dazu, deshalb nicht weiter notiert).


04.03.08: Kolloquium: Huppenbauer

Fortsetzung Grotefeld zu Gerechtigkeit. Kritik an Rawls: Zwei Ausgangspunke. Erstens die libertäre Kritik (Nozik und andere). Diese haben ein Problem mit der von Rawls geforderten Umverteilung bzw. gehen davon aus, dass Verteilungen von Grundgütern, die Rawls als ungerecht ansehen würde, gerecht sind. Ausgangspunkt der Theorie ist die Idee, dass Menschen drei „angeborene“ Rechte haben: Leben, Freiheit und Eigentum (das Recht auf Eigentum sollte man in der Tat hoch schätzen, denn es ist ein zentraler Puffer gegen Staatsversagen. Es ermöglicht moralisches Handeln wenn z.B. Umverteilungsmechanismen versagen – diese Idee klarer ausformulieren). Die von Nozick formulierte Anspruchstheorie der Gerechtigkeit basiert auf drei Prinzipien (die näher auszuführen sind): Grundsatz des gerechten ursprünglichen Erwerbs. Übertragungsgrundsatz (d.h. akzeptable Transferbedingungen von Gütern wie informierter Tausch). Grundsatz der Beseitigung von Ungerechtheit (d.h. der Staat interveniert wenn bestimmte Transferbedingungen wie Vertragstreue, Gewaltlosigkeit, Verbot des Diebstahls etc. verletzt sind). Alle Verteilungen, welche unter der Einhaltung dieser Bedingungen entstehen, sind gerecht.

Zweitens die kommunitaristische Kritik – diese hat Rawls nachhaltiger beeinflusst als die libertäre Kritik. Grundsätzlich war die Liberalismus-Kommunitarismus-Debatte für die 1980er und 1990er prägend in der politischen Philosophie (keine reine Rechts-Links-Debatte). Vertreter des Kommunitarismus u.a.: Alasdair MacIntyre, Michael Sandel, Charles Taylor, Michael Walzer. Grundidee dieser Kritik: Liberalismus (und auch Rawls) ist Kontext-vergessen, d.h. man kann Gerechtigkeit nicht unabhängig vom jeweiligen Gemeinschaftskontext (historisch gewachsene Werte, Praktiken, Institutionen) bestimmen, dieser bildet einen unhintergehbaren normativen Kontext. Vier zentrale Kritikpunkte des Kommunitarismus sind:

  • Die Personenkonzeption des Liberalismus (und von Rawls) ist atomistisch (also eine kritik an einer methodischen Voraussetzung des Schleier des Nichtwissens).
  • Gerechtigkeitsprinzipien sind nicht ethisch neutral, d.h. abhängig von normativen Theorien.
  • Dem Liberalismus fehlt es an der integrativen Kraft des Guten (das Gute hat in sozialen Kontexten etwas anziehendes, motivierendes).
  • Man könne keine universalistische Moraltheorie begründen.

In der neueren Debatte kam es zusätzlich zu zwei weiteren Kritikfeldern. Ersten die equality-of-what-Debatte: Man ist sich zwar einig, dass bestimmte Güter Gegenstand einer Umverteilung sein sollten (d.h. niemand sollte aufgrund unverdienter Umstände schlechter dastehen als andere), doch es ist unklar, welche das sein sollen. Ziel ist dabei nicht die Realisierung von Gleichheit hinsichtlich aller (mehrerer) Parameter, sondern hinsichtlich gleicher Lebenschancen. Die Frage ist, welche Güter müssen dazu umverteilt werden: Grundgüter, Ressourcen, Fähigkeiten? Amartya Sen beispielsweise kritisiert, dass Grundgüter nicht um sich selbst willen geschätzt werden, sondern weil man damit was machen kann, was wiederum von verschiedenen Umständen abhängt (persönliche Charakteristika, Umweltbedingungen, soziale Klima, relative Aussichten, Verteilung innerhalb der Familie etc.). Der Ausdruck „was man damit machen kann“ verweist auf Fähigkeiten (capabilities, d.h. das Vermögen eines Menschen, für sein Leben wertvolle Funktionen zu realisieren) und Funktionen (functionings, Dinge, die ein Mensch gerne tun oder sein möchte). D.h aus der Menge aller Dinge D, die Menschen gern tun oder sein möchten wird mittels eines zweistufigen Filters ausgewählt: Zuerst jene Elemente aus D, die X will (D*), und dann jene Elemente aus D*, die X realisieren kann. Kontextgebunden muss dabei die capability-Auswahlfunktion eine reale Wahl zwischen Alternativen ermöglichen (denn diese Möglichkeit der Wahl ist seinerseits etwas gutes – sollte es dann nicht umgekehrt laufen? Mehr überlegen). Jedenfalls ist diese Auswahlfunktion von individuellen Präferenzen abhängig und deshalb sei es nicht möglich, eine objektive Liste menschlicher Grundfähigkeiten zu definieren (unklar).

Zweites Kritikfeld ist die why equality Debatte (seit den 1990er Jahren), d.h. es wird bestritten, dass Gleichheit überhaupt ein Ziel von Gerechtigkeit darstelle (Gleichheit sei höchstens eine Nebenfolge von Gerechtigkeit). Aus dieser Perspektive ergeben sich vier Typen von Egalitarismus-Kritik:

  1. Gerechtigkeit ist überhaupt keine relationale Kategorie, d.h. es gehe nicht darum, Arten von Leben (und damit verbundene Verteilungen) zu vergleichen. Es gebe lediglich ein Minimum, dessen Unterschreitung Gegenstand von Umverteilung sein könne

  2. Egalitarismus im Sinne von Rawls sei inhuman, denn der Fokus auf die Lebenschancen vergesse den Blick auf die Folgen. Selbstverschuldete Verelendung sei dann kein moralisches Problem mehr, zudem würden Personen, die aufgrund von Ungleichheit Gegenstand von Umverteilung würden, stigmatisiert (herablassendes Mitleid) und man müsse ein Prüfsystem aufbauen, das jeweils bei Einzelpersonen testet, ob unverschuldetes Umrecht da ist (d.h. eine Form von Entmündigung.

  3. Komplexität werde unterschätzt, z.B. die Kritik von Walzer. Der Urzustand beraube die Menschen von dem, was ihnen wichtig sei, d.h. im Urzustand getroffene Regeln haben keine motivationale Kraft. Zudem bestehe die Gesellschaft aus unterschiedlichen Sphären (Abgrenzungskriterium?), in denen es unterschiedliche Güter zu erlangen bzw. zu verteilen geben (Geld, Macht, göttliche Gnade, Bildung, medizinische Versorgung etc.) und in denen deshalb auch unterschiedliche Gerechtigkeitsprinzipien zur Anwendung gelangen. Walzer will ein System komplexer Gleichheit: Unterschiedliche Güter für unterschiedliche Personengruppen auf der Basis unterschiedlicher Verfahren. Dabei müsse man vermeiden, dass Dominanz in einer Sphäre zur Dominanz in anderen Sphären führe. Die Idee der pluralistischen Gerechtigkeit von Miller geht in eine ähnliche Richtung, wobei es dann auch abgrenzbare Systeme brauche, innerhalb deren Gerechtigkeit realisiert werde (Staaten).

  4. Nichtrealisierbarkeit (dazu keine weiteren Kommentare).

Walzer und Miller gehen in interessante Richtungen.


03.03.08: Seminar „Evolution der Moral“

Burkhart über Kooperation und Altruismus bei Primaten. Sie suchen auf der proximalen Ebende, d.h. nach „Mechanismen“ von solchem Verhaltens. Als solche Mechanismen bzw. Ursachen gelten:

  • Solicitation, d.h. agent X verhält sich kooperativ/altruistisch gegenüber Y, weil dieses Verhalten durch Y durch Betteln (schwächer) oder Drohen (stärker) eingefordert wird.

  • Erwartung von Rexiprozität, d.h. X erwartet, dass sich später auch Y ihm gegenüber entsprechend verhalten wird (kurze Zeitskala: Mutualism, lange Zeitskala: Reciprocity, was allerdings anspruchsvolle kognitive Ressourcen braucht)

  • Prosozialität (other-regarding preferences ORP). Das wäre dann „echter Altruismus“, d.h. Besorgnis um das Wohlergehen anderer. Wobei sich hier auch die Frage stellt, ob solcher Altruismus nicht auch in X selbst so etwas wie positive Emotionen freisetzt (die dann Gegenstand einer empirischen Erfassung sein könnten. Wie würde man das tun? Z.B. via Gesichtsausdruck? Bestimmte Verhaltensmuster, Analogon der skin conductance?)

Das von ihnen gewählte Paradigma: Adaption des Diktator-Spiels bei Weissbüschelaffen, welche – im Gegensatz zu den anderen Primaten – kollektives Brutverhalten zeigen. Danach wird das Paper vorgestellt (siehe Paper selbst). Das Beispiel zeige, es gebe ORP ohne dass eine ToM erwartet werden muss. Weitere Gedanken: Das „Menschenaffengehirn“ habe folgende Fähigkeiten: Möglichkeit der Perspektivenübernahme, Nichtwollen kann von Nichtkönnen unterschieden werden, Selbsterkennung im Spiegel, rationales Imitieren, rudimentärer Sprachgebrauch, ToM in kompetitiven Kontexten (das würde mich genauer interessieren). Durch spontane ORP würde es dann möglich, dass Primaten im Zug der Evolution ToM auch in kooperativen Kontexten anwenden könnten (so die Skizze der evolutionären Geschichte der menschlichen Moralfähigkeit – hat aber noch Lücken).


26.02.08: Kolloquium: Huppenbauer

Grotefeld zu Gerechtigkeit (bis und mit Rawls, ohne Rawls-Kritik). Gerechtigkeit ist ein Relationsbegriff (aber nicht im strikten Sinn verstanden, „x prädikat y“, d.h. Sprachgebrauch erlaubt sowohl „x ist gerecht“ als auch „x ist gerecht zu y“), also anwendbar letztlich auf den Umgang mit Menschen im Sinn von etwas, das man Menschen schuldet. X kann unterschiedliches sein: Handlungen, Haltungen, Personen, Regeln, Verhältnisse, Institutionen. Unterschiedliche Annäherungen an Gerechtigkeit (hier vorab distributive G.) sind:

  • Jedem das Gleiche (Gleichverteilung des Guts)
  • Jedem das Seine (moralisch gewichtete (g) Verteilung des Guts G, das X in der Quantität |G| zur Verfügung steht, d.h. nach der Verteilung hat X g*|G| von G zur Verfügung. Dies verlangt Präzisierung der relevanten Güter (welche Ungleichheit bietet Anlass zur Gewichtung) und Quantifizierung der Gewichte (wie sind die Gewichte zu wählen, d.h. Art der Ungleichbehandlung)). Varianten für Gewichtungen sind:
    - g so wählen, dass bestehende Ungleichheiten zwischen {X} ausgeglichen werden
    - g nach den Fähigkeiten/Verdiensten von X wählen
    - g gemäss den Bedürfnissen von X wählen

Eine grundlegende Kategorisierung unterschiedlicher Formen von Gerechtigkeit stammt von Aristoteles (Nikomachische Ethik, Buch V, hier etwas anders zusammengefasst):

  • Allgemeine Gerechtigkeit. Bei Aristoteles die auf das „Gesetz“ (alle sittlichen Normen) bezogene Gerechtigkeit, die das Glück der politischen Gemeinschaft hervorbringt und erhält (eine vollkommene Tugend). Nicht so einfach zu verstehen, wohl als eine Form von Übereinstimmung/Konformität mit grundlegenden Ansichten über die Art der Organisation politischer Gemeinschaften (z.B. Übereinstimmung der gesellschaftlichen Organisation im Sinn des Ständestaates, der seine Legitimation von Gott erhält – so eine mittelalterliche Variante). Heute wäre das evt. ein Ansatz für Naturalisierungen gesellschaftlicher Organisationsgesetze (d.h. würde beispielsweise altruistic punishment als grundlegendes Element gesellschaftlicher Organisation anerkannt, wären Regeln, die dieses Punishment realisieren, gerecht). Evt. könnte man auch das von Aristoteles eingebrachte Prinzip der Billigkeit hier verorten (als eine Metaregel, die z.B. die Anwendung eines „Gnade vor Recht“ Handelns in konkreten Einzelfällen ermöglichen würde). Billugkeit

  • Spezielle Gerechtigkeit. Hier geht es um unterschiedliche Formen von Gleichheit – was meistens der Gegenstand der heutigen philosophischen Debatten ist. Aristoteles unterscheidet zwei Varianten:
    A) Austeilende Gerechtigkeit. Es geht um die Verteilung von Gütern wie Ehre, Geld, wobei die geometrische Proportionalität angestrebt wird (g wird so gewählt, wie es der „Würdigkeit“ von X entspricht, die Menge |G| von G zu erhalten). Es geht um die Gleichheit von Verhältnissen
    B) Ausgleichende Gerechtigkeit. Hier geht es um formale Gleichheit (d.h. es wird arithmetische Proportionalität angestrebt), die im Sinn einer Wiederherstellung gestörter Gleichheit (primär im Fall b) verstanden werden sollte. Zwei Unterformen müssen berücksichtig werden. a) Der Austausch geschieht freiwillig: Tauschgerechtigkeit (quasi der Markt ist dann das Verfahren zur Herstellung der Gerechtigkeit). B) der Austausch geschieht unfreiwillig: Strafgerechtigkeit (Das Verfahren ist das Recht).

Danach folgt Rawls – die derzeit wohl einflussreichste Konzeption von Gerechtigkeit. Die Kernelemente sind als solche bekannt und werden hier nur kurz rekapituliert: Ihm geht es um die Verteilung von Grundgütern bzw. um den Aufbau von sozialen Institutionen, welche die Verteilung gewährleisten sollen („soziale Gerechtigkeit“). Gerechtigkeit sei die erste Tugend von Institutionen, die sozial genannt sein wollen. Er will die sine qua non Bedingungen von Gesellschaften benennen, die sich als „gerecht“ bezeichnen. Für die Erzeugung dieser Prinzipien legt er die Bedingungen fest, unter welchen sie gefasst werden (Urzustand als Modell). Voraussetzungen dieses Verfahrens sind:

  1. Soziale Umstände wie natürliche Gaben von Personen, welche in der Realität die Verteilung der G auf X bestimmen (d.h. Ermöglichkeitsbedingungen E von G sind), sind gleichermassen unverdient. Es ist demnach grundsätzlich legitim, die Quantitäten von G umzuverteilen (umverteilen müsste man wohl in einem weiten Sinn verstehen, d.h. z.B. auch kompensatorische Rechte DAS KLARER AUSFORMULIEREN), wobei das Wissen, welches X welche E hat, keine Rolle spielen sollte.

  2. Es gibt Grundgüter G*, die alle X einer Gesellschaft in einem minimalen Mass brauchen. Diese sind: Rechte, Freiheiten, Chancen, Einkommen, Vermögen, Selbstachtung. Das sind die Güter, die Gegenstand einer Umverteilung sein können.

  3. Alle X haben die grundlegende moralische Intuition, wonach alle Personen als frei und gleich betrachtet werden sollten. Prozessbedingungen des Urzustandes, welche dieser Intuition Rechnung tragen, heissen fair.

  4. Grundsätze, auf die sich vernünftige Menschen unter fairen Bedingungen einigen würden, heissen gerecht.

Aus diesen Voraussetzungen ergibt sich die Beschreibung des Urzustandes wie folgt: Die Menschen im Urzustand…

  • sind frei und gleich
  • Sind hinsichtlich des Wissens der ihr zur Verfügung stehenden E im Ungewissen (Schleier des Nichtwissens)
  • Wissen um die Existenz von G*
  • besitzen allgemeine anthropologische und soziologische Kenntnisse
  • verhalten sich rational und kooperativ
  • haben einen „Sinn für Gerechtigkeit“

Unter diesen Umständen würden sich, so Rawls, die Menschen auf zwei Grundsätze und zwei Vorrangregeln einigen:

  1. Grundsatz: Jedermann hat das gleiche Recht auf das umfangreichste Gesamtsystem gleicher Grundfreiheiten, das für alle möglich ist

  2. Grundsatz: Ungleichheiten müssen unter der Einschränkung des gerechten Spargrundsatzes den am wenigsten Begünstigten den grösstmöglichen Vorteil bringen (Differenzprinzip) und mit Ämtern und Positionen verbunden sein, die allen chancengleich offenstehen.
    a) Vorrangregel: Grundfreiheiten können nur um der Freiheit willen eingeschränkt werden
    b) Vorrangregel: Der zweite Grundsatz ist dem Prinzip der Leistungsfähigkeit und Nutzenmaximierung vorgeordnet (ebenso ist die faire Chancengleichheit dem Unterschiedsprinzip vorgenordnet – ist das eigentlich nicht eine dritte Vorrangregel?)

Als weitere „Grundsätze“ gelten offenbar noch: gerechter Spargrundsatz (Generationengerechtoigkeit), Chancengleichheit, Maximin-Regel (jenes schlechtmöglichstes Ergebnis ist zu wählen, das relativ am besten ist).

All dies bedarf einer genaueren Darstellung dessen, was eigentlich der gesamte Katalog an „Grundsätzen“ ist und wie genau die von Rawls geforderte lexikalische Ordnung aussieht (und ob sie vollständig ist). Ebenso braucht es ein Verfahren zum Ranking aller X einer Gesellschaft, damit die „am wenigsten Begünstigten“ auch identifiziert werden können.


18.02.08: Seminar „Evolution der Moral“

Einführung durch van Schaik / Schaber aufgrund des Textes von Bayertz. Grundidee des evolutionären Ansatzes: Heutige Verhaltensmerkmale haben Wurzeln. Aber: was genau meint das eigentlich? Ist es das Verhalten, das die Wurzel hat oder die biologische Infrastruktur, welche dieses Verhalten ermöglicht? Ist nicht dasselbe. Neues Verhalten kann wie eine Art Phasenübergang auftreten und hat in diesem Sinn keine Wurzeln. Van Schaik bezeichnet die Skizzierung der evolutionären Ethik durch Bayertz als „klassische Vorstellung“. Neue Vorstellungen sind jene von De Waal (Moral als Erweiterung von Primaten-Emotionen wie Empathie) und Alexander (Moral als spezifisch menschliche Adaptionsleistung). Van Schaik glaubt, es gebe keinen „nicht-altruistischen Bereich“ von Moral (das sieht Schaber genau umgekehrt: Altruismus habe wenig mit Moral zu tun). Klar ist für beide: es gibt unmoralische Altruismus. Kritische Gedanken zum Ansatz von de Waal: was ist eigentlich das verbindende Element zwischen den „building blocks“ von Moral? Und wie kommt man zu neuen „blocks“? Einige Gedanken zur Idee der Moral als Adaption. Vielleicht ist das zu sozial gedacht, wenn man die Erzeugung von public goods als Ausdruck des Vorhandenseins von Moral ansieht. Man sollte auch die Kohärenz des Verhaltens des Individuums mit dessen Selbstbild (das unabhängig von dessen sozialen Wirkung besteht) betrachten (wäre das ein Anknüpfungspunkt für die Idee der Autonomie?). Zu Schabers Vortrag existiert ein Handout. Die für ihn relevante Herausforderung ist: Die Theorie einer Evolution (bzw. generell einer Naturalisierung) von Moral könnte aufzeigen, dass ganz andere Dinge unseren moralischen Überzeugungen und Handlungen zugrunde liegen, als der common sense meint – d.h. das Bild des moral agent ist ein ganz anderes, als dieser von sicht hat (aber eben schon das Haben eines Bildes hat moralische Signifikanz, d.h. auch Täuschungen könnten kausal wirksam sein (und sind es dann noch Täuschungen?) – diesen Gedanken sollte man ausbauen).


08.02.08: STS Meeting ScienceFutures

Habe nur den Freitag voll besucht. Sabine Maasen über „Neurosociety ahead?“ Zu den PR-Leuten der Neurosociety: u.a. Zacj Lynch (Neurotechnology Industy Association und NeuroInsight), der behauptet, ein Viertel vom gesamten venture capital (in den USA wohl) im Bereich Life Science gehe derzeit in den Bereich Neuro. Hinweis auf ein ESF-Projekt (5 Jahre) zu den sozialen Aspekten von Neurowissenschaft. Ihre weiteren Themen dann hinsichtlich Auswirkungen: Strafrecht und Pädagogik. These: Das Bedürfnis nach neurotechnischen Interventionen sei mit dem neoliberalen (warum neoliberal? Würde das klassischen Liberalismus nennen) Ideal eines sich selbst regulierenden (verantwortlichen) Individuum gekoppelt. Dann folgen aber die Bemerkungen zum Libet-Experiment, zur Willensfreiheits-Debatte und zu den neuropädagogischen Postulaten, wonach die wesentlichen Hirnprägungen in der Kindheit geschehen (also zu einer Zeit, wenn die selbstverantwortliche Person noch gar nicht da ist, deshalb glaube ich nicht, dass die Hypothese stimmt. Das später genannte Spannungsfeld zwischen der liberalen Vorstellung und der Ablehnung der Willensfreiheit zeigt ja eher, dass diese Auffassung von Neurowissenschaft einen Challenge für den Liberalismus darstellt, denn er würde z.B. Staatsinterventionen bei der Kleinkinderziehung oder z.B. entsprechende Screenings stützen). Wichtiger Hinweis auf die Unterscheidung „nothing withouty a brain“ und „nothing but a brain“. Hinweise auf den science war en miniature (d.h. Versuch der Hegemonie durch die Neurowissenschaft). Was man sich überlegen sollte: das liberale Ideal impliziert eine zunehmende Zahl von explizit gemachten Entscheidungssituationen (wenn man das mit der Idee des Selbstmanagements verknüpft) – und deshalb das Interesse an social cognitive neuroscience, welche solche Entscheidungssituationen untersucht (u.a. auch die Existenz von Automatisierungs-Strategien behauptet).

Zu den Sessions: Fand vorab Patrik Belker über den emotional turn interessant. Zwei historische Traditionen über Emotion nachzudenken in der Neuzeit: Aufklärung (Emotion als zu unterdrückender Gegner der Rationalität) und Romantik (Emotion bzw. expressive Subjektivität als Korrektiv für die Person). Unterschiedliche Ausprägungen des emotional turn in verschiedenen Wissenschaften. Neurowissenschaft: Emotionen als ssomatic advisors of the self. Medizin/Psychiatrie: Emotionen als korrigierbare innere Zustände. Pädagogik/Psychologie: Emotionen als Ressource (emotional intelligence). Aufbau einer Spannung, wenn man Emotionen in diesem Sinn funktionalisieren und managen will. Was sind dann genuine Emotionen? Eine Idee: genuine Emotionen haben das Potential zur (Selbst-)Destruktivität,


15.01.08: Workshop Graduiertenprogramm

Ina Kaufmann: „Quo vadis Neuroökonomik?“ Offenbar eine methodische Idee der Neuroökonomik: nichtbeobachtbares Verhalten einbeziehen (d.h. Vorgänge im Gehirn und nicht schriftlich oder verbal zu erfassendes Verhalten). Hier ist ein methodischer Grundirrtum enthalten: der semantische Gehalt dieser Zustände ist nicht direkt ersichtlich (sondern eben nur interpretierbar durch die – nennen wir das mal so – Narrationen der Versuchsperson und des experimentellen Kontext. Nebenaspekt: auch die Verwendung der ökonomischen Terminologie in der Neurowissenschaft könnte man untersuchen. Eine Skizze der methodischen Abläufe, welche das Problem der Neuroökonomik verdeutlicht: Man will Physiologie mit konkretem Verhalten korrelieren. Doch die Messachse betreffen Physiologie durchläuft die Stufen: konkrete Messung, Statiskik, Darstellung. Und die Verhaltensachse durchläuft die Stufen: Versprachlichung der Beobachtung, Einbettung des Verhaltens in den sozialen Kontext und schliesslich die Bildung der Theorien zum Verhaltensphänomen – man vergleicht dann in den Publikationen die Theorien mit den Darstellungen (und nicht das konkrete Verhalten mit der Physiologie). Offenbar braucht es zwei Varianten, wie Ethik in der Neuroökonomie zum Tragen kommen kann: 1) als eine Form von Dienstleistung (d.h. Information über die ethischen Probleme z.B. hinsichtlich Forschungspraxis), 2) zur Ausweitung des Begriffsfeld der Kernbegriffe, die da in die Erklärungen reinfliessen, also z.B. Fairness und Altruismus. Man sollte auch prüfen, wie die Erkenntnisse der Neuroökonomik in anderen Gebieten rezipiert werden (d.h. Bibliometrie machen). Beachte auch den Impact dieser Erkenntnisse z.B., auf der Ebene der Organisation von Unternehmen (Implementierung von „altruistic punishment“ in HR departments).

Brigitte Stump. Offenbar wurde Art. 343.3 des Strafprozessrechts noch so geändert, dass zuvor Unmittelbarkeit Standard war und nun Mittelbarkeit die Regel sein wird (wichtige Gewichtsverlagerung). Thema dürfte auch in Wahrheitstheorien hineinreichen (sind Juristen wirklich Korrespondenztheoretiker?). Testimony dürfte als Thema wichtig werden (wird als Begriff in der Philosophie so diskutiert).

Müller/Jütersonke: Zu weit oben im Begriffshimmel. Man sollte bei der kollektiven Verantwortung bleiben. Interessant scheint mir, dass offenbar im Zug der Diskussion das Verantwortungsobjekt immer komplexer wurde (Paradebeispiel Klimawandel). Diese Komplexitätszunahme ist relevant (und nicht jene des Verantwortungssubjektes, auch wenn das auch komplexer geworden ist). Warum zur Autonomie wechseln? Zwischengedanke: Ist Autonomie auf staatlicher Ebene dasselbe wie Souveränität? Autonomie ist insofern interessanter Schlenker, weil man diese zur Zurechenbarkeit von Verantwortung beizieht. Also: inwiefern sind Kollektive autonom (und das ist eine interessante Frage). Und ein anderer Aspekt, der in der Diskussion aufgetaucht ist (Fischer): vor welcher Instanz sind Kollektive verantwortlich?

Daniel Gregovorius: Aufpassen, wenn Begriffe wie Würde oder Integrität von Pflanzen in empirischen Befragungen auftauchen, das dürfte kaum verstanden werden. Natürlichkeit ist da wohl wichtiger.

Textversion für blinde und sehbehinderte Personen © 2018 goleon* websolutions gmbh