Logo go-leon* websolutions gmbh
Unterer Quai 23
CH-2500 Biel-Bienne 1
fon: +41 32 323 37 26
fax: +41 32 323 15 31
mail: info@go-leon.ch
web: www.go-leon.ch



14.10.10 IBME Kolloquium

Agomoni Ganguli-Mitra sprach über die Frage, inwieweit man off-shore klinische Versuche (vorab solche von Industrieländern in der Dritten Welt) als Ausbeutung verstehen können. Ansatzpunkt ist das Modell von Alan Wertheimer, der sich offenbar dagegen ausspricht, ein solches Setting („reiche“ Länder machen ihre Arzneimittelversuche in „armen“ Ländern) generell als Ausbeutung verstehen zu wollen. Er fokussiert eine „Mikro-Fairness“, d.h. wenn die Abläufe auf der Mikroebene eine Reihe von Voraussetzungen erfüllen (u.a. informierte Zustimmung, es besteht auch ein gewisser Nutzen für die Probanden), dann sind solche Versuche gerechtfertigt, auch wenn sie den Patienten in Industrieländern (bzw. den Pharmaunternehmen) letztlich deutlich mehr bringen als den Versuchspersonen in der Dritten Welt (eine Art gerechtfertigte Ausbeutung). Dagegen wendet sich Agomoni: man könne den strukturellen Aspekt der unterschiedlichen Ausgangslage der involvierten Personen nicht vernachlässigen (was stimmt). Klub-Analogie: Klinische Versuche sind Teil eines ganzen Systems, quasi eines „Klubs“, d.h. man muss Mitglied des Klubs sein, wenn man Beiträge zum Wohlergehen des Klubs leistet. Konkret heisst das: eine dauernde „minimal health care“ muss auch für die Versuchspersonen der Dritten Welt gewährleistet sein. Eine im Kern richtige Überlegung, unklar ist mir, warum das unter dem Stichwort „Reziprozität“ stellen muss, scheint mir eher eine Ausweitung des Fokus auch auf eine Art „Makro-Fairness“ zu sein. Folgefragen: braucht denn nicht schon das Durchführen klinischer Versuche einen solchen dauernden Minimalstandard, damit die Resultate überhaupt brauchbar sind? Kann man Medikamente vernünftigerweise testen, wenn dann die Probanden ihren Alltag z.B. auf einer Müllhalde verbringen? (dazu weiss ich zu wenig). Aber evt. wäre das der Ansatzpunkt: das Gebot der „Makro-Fairness“ gewissermassen in die methodischen Voraussetzungen solcher Versuche einbauen. Dann eine weitere Beobachtung: wie sieht es mit den moralischen Motiven aus, die unabhängig von den (z.T. wohl nur geringen) benefits auch bei den Probanden in der Dritten Welt bestehen? Und dann noch eine Beobachtung zum 90/10-gap (d.h. 90% der Forschungsgelder würden für Krankheiten ausgegeben, die nur 10% der Weltbevölkerung betreffen würden). Würde mich sehr interessieren, wie man auf diese Zahl kommt. Rechnet man dabei z.B. die Tatsache mit ein, dass Forschung in Industrieländern sehr viel teurer ist (Löhne der Forscher, Infrastrukturkosten etc.)? Sollte das nicht eher output-orientiert untersucht werden? Gewiss besteht ein gap - ich vermute aber, der ist deutlich geringer als 90/10. Und dann schliesslich noch ein anderer Gedanke: Es geht ja um Minimalstandards. Wie sehen die Prozesse aus, die zu solchen Minimalstandards führen? Welche Ähnlichkeit haben sie zu anderen Standardisierungsprozessen? Und zur Preisbildung in einem Markt?


20.-21..09.10 BID-Workshop Warschau

Kurze Einführung zu BID: Teil des 7. Framework-Programms der EU, dauert drei Jahre, will Diskussion zwischen Stakeholders im Bereich Neurowissenschaft fördern, drei Gebiete (Imaging, Neurotechnologie, genetische Methoden in Neuroscience). Es wird einen Call of Abstracts geben nach dem Workshop.

Tag beginnt mit zwei Vorträgen von DBS-Patientinnen: Lucilla Bossi (sie war bei Jean Siegfried). Erste Anzeichen von Parkinson 1986, drei Jahre später die Diagnose Mit 39 Jahren, also early onset PD), neun Jahre später GPi DBS. Entscheidend war das Treffen mit einem anderen PD Patienten mit DBS, die ohne Probleme eine Kaffeetasse halten konnte. Erfahrung des „radical change“ nach DBS („normality, relaxation“), verbunden mit einer „unbounded happiness“ (danach Krebs-Diagnose, was aber therapiert werden konnte). Nun seit 12 Jahren mit DBS. Danach Verona Butler, eine ganz andere Persönlichkeit. Erkrankte früh (um 1950?) an Dystonie, als man diese Krankheit noch gar nicht richtig kannte. Es dauerte 20 Jahre bis sie 1970 als 97 Person in Grossbritannien mit der Diagnose Dystonie konfrontiert wurde. Danach folgten Jahre des Daseins als „Versuchskaninchen“ für allerlei (medikamentöse) Tests. DBS erfolgte ???. Ehemann wurde zum (weltweit einzigen) Dystonie-Epidemiologen. Erstaunliche Wandlung der Diagnose im von ihm untersuchten Gebiet (Nordengland): 1993 knapp 150 Fälle, heute rund 2300 Fälle (primär Folge der Tatsache, dass man Dystonie heute besser diagnostizieren kann). Butler hatte kein derartiges „Erweckungserlebnis“ mit DBS. Es funktionierte deutlich besser als die anderen Ansätze, aber dennoch nur teilweise. Sie ist immer davon ausgegangen, dass sie mit dieser Krankheit leben muss.

Jean-Luc Houeto stellt DBS als therapeutische Möglichkeit vor (für Essentieller Tremor und Parkinson). Kurz zu den Targets (Vim, GPi, STN), den Selektionskriterien und den Side effects (surgical: 3-4%), danach die schon fast „klassischen“ Videos pre/post. Kurz zu den predictors für gute response (u.a. Levodopa-challenge-response, cognitive/mental stability, generell gute Gesundheit). Motor-Improvements der Therapie sind unbestritten, Steigerung der QoL gemäss den üblichen Scores ebenfalls, höheres Risiko für Impulsivität auch. Ein Thema der Forschung derzeit: soll man wirklich 10-15 Jahre warten, bis man STN-DBS anwendet? Hinweis auf die derzeit laufende Earlystim-Studie (binational D/F). Seine Beurteilung psychiatrischer adverse events: oft Probleme, die durch PD „verdeckt“ waren, tritt vorab auf wenn Stimulation hoch ist und zudem immer noch Dopamin-Agonisten gegeben werden.

Thomas Schläpfer bringt zuerst einige wesentliche Faktoren zu Depression (er fokussiert darauf): Gemäss WHO einer der wichtigsten Krankheiten überhaupt. Prävalenz über Lebenszeit 10-16%, nur 5% werden diagnostiziert, nur 3% therapiert, Mortalität 18% (Suizid). Es gab einen deutlichen Wandel im Verständnis von Depression: ist nicht nur eine „mind“ Krankheit, sondern eine „brain, mind, social (?)“ Krankheit, hört nicht verhältnismässig rasch auf, sondern kann sich über viele Jahre erstrecken, ist nicht eine Krankheit mit gestörten Neurotransmittern als Ursache, sondern Resultat aus einem dysfunktionalen Netzwerk im Gehirn. Letzteres ist die Motivation für DBS mit derzeit vorab rei Targets: cg25 (u.a. Mayberg, 20 Patienten), ventral capsule/striatum (u.a. Malone, 15 Patienten), nucleus accumbens (u.a. sie selbst, 13 Patienten). Anwendung nur bei Patienten, bei denen alle anderen Therapien versagen, Erfolg von DBS in der Grössenordnung von 50-60%. Eventuell spielt das Target keine so grosse Rolle, bei allen ist das medial forebrain bundle involviert (evt. das künftige Target).

Mauro Porta spricht zur Anwendung von DBS für das Tourette Syndrom. Sie haben ca. 1000 solche Patienten, davon haben bislang 40 DBS erhalten. Grundproblem: Tourette hat offenbar keinen neurobiologischen Marker. Zudem ein spezifisches Problem von DBS bei Tourette: Die Krankheit tritt in der Regel im Kindesalter auf. Soll man wirklich bis zum Alter 25 Jahre warten? Was man dann aber eintauscht ist das heikle Problem des Informed Consent zu DBS bei Kindern. Persönlich will er offenbar derzeit hier sehr vorsichtig sein.

Morten Kringelbach mit einem sehr interessanten Vortrag: besorge Dir seine Übersichtsartikel im Nature Review Neurosciencevon 2007! Und ein Hinweis: derzeit werde in China lesions im Nukeus Accumbens von psychiatrischen Patienten / Süchtigen durchgeführt (auf staatliche Anweisung: diese Sache weiter verfolgen!).

Ali Sarem-Aslani von Medtronic stellt den Standpunkt und die Rolle der Firma dar (gegründet 1949 in Minneapolis, eine „Garagenfirma-Story“). Derzeit 14.6 Milliarden Dollar Umsatz, ca 10% im Neuro-Bereich, ca. 2-3% mit DBS. Die Firma macht 2/3 all ihrer Umsätze mit Technologien, die in den letzten 2-3 eingeführt worden sind (d.h. hohes Innovationstempo). Hinweis auf eine Studie im European Journal of Neurology 12(1) 2005 „Costs of Diseases of the brain in Europe“: nachschauen! Interessant bei DBS: da war die Firma zu Beginn sehr vorsichtig (Reputationsrisiko!). Es dauert derzeit ca. 10 Jahre von der ersten experimentellen klinischen Anwendung bis das Verfahren in einem bestimmten target bzw. bei einer bestimmten Krankheit zugelassen wird (1997 für Essenzieller Tremor, 2002 für PD, 2003 für bilaterale PD, 2003 keine volle Zulassung für Dystonie und 2009 ebenfalls keine volle Zulassung für OCD). Er nennt die Zahl von 400'000 Patienten, die bislang insgesamt von Neurostimulatoren profitiert hätten (da gehören wohl die Rückenmark-Stimulationen dazu – nachprüfen). Ihre wichtigsten Forschungsprogramme sind die schon genannte Earlystim-Studie sowie die Anwendung für Depression und Epilepsie. Offenbar ist zudem ein neues Paper in Nat Rev Neurology (u.a. mit Witt) herausgekommen: prüfen.

Der zweite Tag zu den ethischen, ökonomischen etc. Aspekten. Maartje Schremer gibt zuerst eine Übersicht zu den diversen ethischen Fragen, die DBS stellt. Zuerst der Hinweis auf den geschichtlichen Hintergrund (Lobotomie, Das Tulane electrical stimulation program von Heath, Delgado und der Effekt von Filmen wie „Einer flog über das Kuckucksnest“). Klassische Ängste wie Manipulation, die Cybors-Debatte und das Problem der zu positiven öffentlichen Darstellung (u.a. die Studie von Racine). Danach kurz die vier Prinzipien durchdekliniert und der (nun schon fast berühmte) holländische Fall des PD Patienten, der nach STN-DBS manisch wurde und danach vor dem Dilemma gestellt wurde: stim-on und Psychiatrie, oder stim-off und Krankenhaus. Danach die forschungsethischen Fragen (Hinweis auf die Guidelines von Nuttin et al 2002 und die neueren von Rabins (?) et al 2009). Und schliesslich ein weiterer Fallbericht zu OCD, wo DBS zwar die Zwangsstörung nicht behob, aber bei der Patientin ein „glückliches Gefühl“ auslöste, die diese nicht haben wollte (Bemerkung dann von Dubiel: auch er hatte dieses Erlebnis, fühle sich unheimlich an, da das Glück künstlich schien). Hinweis: wir sollten unsere Case Reports nach Art der ethischen Fragen, die diese stellen, klassifizieren.

Jens Kuhn spricht dann zur Anwendung von DBS in Köln (eines der grössten Zentren weltweit): Bewegungsstörungen, OCD, Tourette, Suchtkrankheiten (Alkoholismus) und Demenz (seine Gruppe). Es gibt auch ein ELSA-Projekt zu DBS (ethical, legal and social aspects). Es werden auch empirische Daten erhoben, insbesondere auch Tiefeninterviews. Diese verweisen auf den (von uns vermuteten) satisfaction gap: 5 von 37 (30 Bewegungsstörung, 7 psychiatrisch) Patienten geben an, dass sie sich nicht besser fühlen, obwohl die QoL (PDQ-39) gestiegen sein soll. Dann ein weiteres Fallbeispiel eines STN-DBS Patienten, der hypomanisch wurde aber nicht wollte, dass dieser Zustand verändert wird. Man musste mit einem Trick das Gerät ausschalten, so dass er dann im Zustand stim-off einer Veränderung der Stimulationsparameter zustimmen konnte (was er dann auch tat).

Helmut Dubiel spricht dann zu seinen Erfahrungen – leider versteht man ihn akustisch kaum (er sollte für solche Fälle ein headset erhalten). Er arbeitet offenbar an einem zweiten Buch. Generell pessimistische Einschätzung des Nutzens von DBS basierend auf seinen Erfahrungen – Patientenerwartungen würden oft nicht erfüllt.

Emma McIntosh mit ersten Zahlen einer umfassenden cost-benefit-Studie, die derzeit von der Universität Birmingham durchgeführt wird. 366 Patienten von 13 Zentren, die zufällig entweder DBS oder der best medical treatment zugeführt worden sind. Klinische Ergebnisse sind offenbar im Lancet Neurology 2010 veröffentlicht worden (nachprüfen). Hauptsächliche Outcome-Zahlen waren UPDRS, PDQ-39 und EQ-5D (Qualy’s). Eine sehr umfassende cost utility analyse, die möglichst alles beinhaltet, inklusice out of the pocket costs der Patienten. Kosten von DBS im ersten Jahr knapp 16'000 Pfund pro Patient. EQ-5D surgery: 0.56, medical: 0.50 (signifikanter Unterschied). Dann das klassische Auswertungsschema für die Beurteilung einer Therapie entlang der x-Achse surgery effect und y-achse surgery costs. Klar ist die Sachlage bei schlechterem Effekt und höheren Kosten (dann die konventionelle Therapie) und besserer Effekt bei geringeren Kosten (dann die neue Therapie). Problematischer sind die beiden anderen Quadranten: weniger Effekt bei weniger Kosten (hier dürfte die Alternative lesion therapy eine Rolle spielen) und besserer Effekt bei mehr Kosten. DBS dürfte in diese Kategorie fallen – obgleich man die Analyse woll auf 3-5 Jahre ausdehnen müsste, denn es ist klar, dass surgery im ersten Jahr teurer ist (die Frage ist dann natürlich auch: wie oft muss man Batterie wechseln, was ändert, wenn die wiederaufladbaren Batterien kommen). Für manche Aspekte (z.B. wie bewertet man die Kosten der informellen pflege) ist die Analyse sehr sensitiv. Hinweis auf ein Buch, das ich kaufen sollte: McINtosh et al 2010: Applied Methods of CBA in Health Care (Reihe: economic evaluation handbook, Oxford University Press).

Baptiste Moutaud bringt den science study Standpunkt hinein: vorab qualitative Methoden mit Blick darauf, wie das Erlebnis der DBS-Operation die Einschätzungen des Patienten ändern. Eine Beobachtung: man externalisiert sein Problem und lokalisiert es beim DBS device. Auch er bringt mehrere Beispiele für den satisfaction gap (u.a. auch die Studie Agid et al. 2006). Plädoyer dafür, dass man diese Leute auf den abrupten Wechsel des Lebens nach DBS vorbereiten und begleiten muss.

Daniela Ovadia schliesst mit einem sehr interessanten Vortrag zur Art und Weise, wie die Medien über DBS berichten. Historischer Vergleich: den „Delgado Effekt“ (und dazu auch einen text von John Horgan: the forgotten era of brain chips). Beachte dazu vorab die Arbeiten im Journal of the History of the Neurosciences 8(1) 1999, Racine et al („currents of hope“) im Cambridge Quarterly of Health Care 2007, sowie on Social Science and Medicine 2010. Und der Kommentar von Schläpfer et al „Deep Brain Stimulation and the Neuroethics of responsible publishing“. Ich denke aber, die Medien sind der falsche Kanal für adäquate Patientenaufklärung. Man muss einen alternativen Kanal schaffen via Patientenorganisationen etc.


03.09.10 AEM Tagung Zürich

Ich war nur einen Tag an der AEM-Tagung. Am morgen das Podium zum Thema „Globale Medizinethik?“ mit den drei möglichen Bezugspunkten Menschenwürde, Autonomie und Menschenrechte. Seelmann geht in seinem Impulsreferat von der Polarität Industrie- versus Entwicklungsländer aus und sieht im Import und Export von Dingen/Wissen das Problem (z.B. „Import“ von Organen, Teilnahme an Studien) und die wichtigen ethischen Fragen z.B. nach Bevor- und Benachteiligung. Kernprobleme sind Zwang und Wucher (man könnte hier an sich auf die Geberseite problematisieren, was er nicht tut). Sein Grundgedanke: man kann vielleicht nicht die Normen selbst, aber die Verfahren zur Normengenerierung universalisieren (und es gibt insofern eine globale Medizinethik).

Schaber will von den drei Bezugspunkten die Menschenwürde als Basis nehmen. Kurzes Eingehen auf die Debatte über die Schlagfähigkeit des Begriffs. Gegen die Kritik der „Leere“ des Begriffs (Hoerster) wendet er ein, dass die Tatsache, dass Unterschiedliches unter dem Begriff verstanden wird, kein Argument für die Leere des Begriffs sei (natürlich nicht, der Begriff steht so gesehen als Platzhalter für eine ethische Debatte). Gegen die Ersetzbarkeit (z.B. mit „Menschenrechten“) wendet er ein, dass Man Würde zwar durchaus mit einem Set von Grundrechten verbinden kann (wie das Birnbacher macht), das aber den Begriff nicht ersetzt, vielmehr begründet er dieses Set an Normen. „Würde“ gehört in das semantische Feld von Demütigung und Respekt, nicht jede Autonomieverletzung ist eine Würdeverletzung. Der Begriff hat ein eigenes Gepräge.

Wiesemann setzt das Fundament auf „Autonomie“ und diskutiert vorab die Problematik des informed consent und die Rolle des Vertrauens in dieser Problematik. Eine globale Medizinethik sollte demnach vorab untersuchen, wie Vertrauensverhältnisse aufgebaut werden.

Illilic fokussiert auf die Interkulturalität des Arzt-Patient-Verhältnisses und bringt Hinweise, die auf ein unterschiedliches Verständnis von „Autonomie“ im westlichen bzw. asiatischen Kulturraum hinweisen.

Ein Gedanke zur nachfolgenden Debatte: der Entstehungskontext von Werten spielt meines Erachtens eine Rolle für deren Geltung (Merkmal der Moral: man kann context of discovery und context of justification nicht sauber trennen). Werte bilden Basis für erfolgreiche (oder erfolglose) Gesellschaften und in den dort akzeptierten Rechtfertigungsmöglichkeiten. Wenn Werte Ergebnis einer Art kulturellen Evolution sind (so verstanden bzw. im Kontext von Erfolg), dann ist dieses Tatsache mit ein Aspekt ihrer Begründung (weil sie überlebt haben). Das unterscheidet kulturelle Evolution von der natürlichen Evolution (erstere ist sinnbehaftet). Diesen Gedanken ausbauen!

Nachmittag: die ersten beiden Vorträge von Ruth Baumann-Hölzle und Jürg Streuli habe ich nicht gross notiert (Dialog Ethik Beispiele, eher deskriptiv statt Verteidigung einer These). Dann der Vortrag zu Schwangerschaftsabbruch und PD (Vergleich Niederlande und Deutschland)) mit interessanten Infos: In D (Abbruchquote 7.1 pro ?) bis zur 12. Woche straffrei, dann entscheidet de jure der Arzt (de fakto das Paar / die betroffene Frau). 98% finden vor der 12. Woche statt (da ist PD praktisch nicht involviert), 1.8% bis zur 23. Woche, 0.2% später. In NL (Quote 8.7) straffrei bis zur 21-24 Woche (extrauterinäre Lebensfähigkeit), Beratung nötig. Danach darf praktisch nur noch bei letaler Gefahr für die Mutter abgetrieben werden. Entsprechend 84% bis zur 12. Woche, ca. 16% bis zur 24. Woche, danach praktisch 0%. Könnte ein Hinweis darauf sein, dass PD in NL eine grössere Rolle spielt. Hinweis auf unterschiedliches Verständnis des Begriffs „Spätabtreibung“: entweder die juristische Grenze, die Grenze der Lebensfähigkeit (oder die Grenze der Methode: Geburtseinleitung).

Sabine Müller dann zu Lügendetektoren und Imaging. Vorstellen der derzeit verwendeten Methoden: Polygrafen, Thermodetektoren, Stimmfärbung (beruhend auf der Lügen erzeugt Stress These), dann EEG oder eben Imaging. Polygraph erreicht Trefferquote von 0.86 (also immerhin mehr als Zufall) – doch bekanntlich können gerade die abgebrühten Straftäter das gut überspielen. EEG-basierte Verfahren sind bis vor kurzem in Indien zugelassen gewesen(„brain fingerprinting“, BEAP, BEOS), was zu ca. 300 Anwendungen und 6 Gerichtsverfahren geführt habe. In den USA Anwendungen wie „no lie fMRI“. Wissenschaftliche Basis dieser Verfahren mehr als dürftig.


30.06.10 Workshop Kitcher

Einige Notizen zu Christine Clavien, die drei Formen von Altruismus vorstellt:

Dann Kitcher zu seinem „ethical Project“, an dem er nun schon seit Jahren arbeitet. Titel bringt schon die Grundidee zum Ausruck: Ethik ist work in progress (kein klarer Unterschied zwischen morals und ethics, wie im englischen Sprachraum üblich). These: um Moral zu verstehen muss man die Geschichte der Morla verstehen – sowohl die Naturgeschichte als auch die Kulturgeschichte (natürlich vollkommen einverstanden). Gegen eine solche Sichtweise seien Religion (mythische Ursprünge von Moral) und Philosophie (doch stimmt das?).

Kitcher sieht Stufen in der „Naturgeschichte“ der Moral: Zu Beginn die Kleingruppe mit ca. 40 Individuen, wo bereits psychologischer Altruismus notwendig war, um zu bestehen. Psychologischer Altruismus ist „to identify with the wishes of others“ (dazu müsste man mehr wissen, Abgrenzung z.B. zu Empathie?). Doch psychologischer Altruismus hat drei Grundprobleme: Fragil, hoher Reparaturaufwand bei Schädigung, nicht skalierbar (da face-to-face-Kommunikation). Die „human advantage“ besteht dann darin, dass aufgrund von Sprache und Prognosefähigkeit (evt. auch Fähigkeit zur Fiktion) Regeln formuliert werden konnten, die über den psychologischen Altruismus hinausgehen. Das induzierte eine cultural evolution, in der auch neue Probleme auftreten. Offenbar hat er kein klarer Begriff von kultureller Evolution, eher so was wie „50'000 years experiments of living“. Ein erfolgreiches Moralsystem erlaubte bessere Kooperation und damit Verbesserungen in vielerlei Hinsicht, u.a. Städte, Landwirtschaft, Staaten... Interessante Bemerkung: die ersten gefundenen schriftlichen Dokumente der Menschheit betreffen Regeln!

Nächste Stufe ist Umgang mit den Problemen, die sich zu beginn der cultural evolution stellen: Knappheit und daran geknüpfte Teilungs-Probleme gekoppelt mit Sankionssysteme bei altruism failures. Später dann ergeben sich Formen von Arbeitsteilung, Rollen und daran geknüpft Ideen wie Solidarität. Unterschiedliche „experimentelle Traditionen“ entstehen: eher subsistenzwiurtschaften oder aber Wachstumsgesellschaften. Er sieht diese Sichtweise als eine Form von pragmatischem Naturalismus u.a. inspiriert von Dewey. Dieser meinte schon, Moralität entstehe im Spannungsfeld menschlicher desires und dem Wunsch nach Sozialität.

Kitcher sieht im ethical project eine Idee von Fortschritt realisiert vergleichbar mit dem Fortschrittsbegriff von Technologien: neue Funktionen werden durch die Moral zugänglich und diese werden auch besser erfüllt. Z.B. folgendes Beispiel: Ursprüngliche Sanktion bei Regelverletzungen: Wer z.B. die Tochter von jemanden tötet, dem soll ebenfalls die Tochter getötet werden (quasi vollständige Symmetrie – wäre natürlich interessant zu fragen, was diese alten Gesetzestexte zum Problem sagen, wenn die Symmetrie nicht erfüllbar ist). Später dann: Wenn jemand tötet, soll er ebenfalls getötet werden. Ein weiteres Beispiel, dass dann in seinem Buch beschrieben wird, ist die Abschaffung der Sklaverei. Diese Idee von moralischem Fortschritt ist eng an die Idee einer moralischen Wahrheit geknüpft: es braucht so was wie „Wahrheit“ (relativ zum Fortschritt), um überhaupt von Fortschritt sprechen zu können bzw. moralische Veränderungen antizipieren zu können (dürfte nahe sein am pragmatischen Wahrheitsbegriff). Es gibt aber dann auch unterschiedliche moralische Wahrheiten (und Kitcher: keiner ist hierzu ein ausgezeichneter Experte).

Warten wir also auf das Buch.


31.05.10 Seminar Biologie und Philosophie

Thema war der Text von Edouard Machery, offenbar eine Art Zusammenfassung seines Buches „Doing without concepts“. Seine Kernthese ist offenbar: es gibt verschiedene, nicht aufeinander rückführbare Theorien (Begriffe) von Begriffen (zumindest für die cognitive science) und deshalb sollte die cognitive science auf den Begriff „Begriff“ verzichten (bringe nichts) – was aber an sich schon mit seiner Definition von „Begriff“ (a concept of x is a body of information about x that is stored in the long-term memory and that is used by default in the processes underlying most, if not all, higher cognitive competences when they result in judgments about x) in einen gewissen Widerspruch gerät: zumindest, um über sein Problem zu sprechen, braucht er offenbar eine solche Minimal-Definition. Seine Idee, dass es default knowledge (vs. backgrozund knowledge) gibt, ist für ihn offenbar wichtig. Seine zwei Kriterien, Konzepte zu individuieren (Connection und Coordination) erscheinen sinnvoll (doch ihre Anwendung zur Stützung seiner Theorie kann ich nicht nachvollziehen). Er macht auch eine Unterscheidung zwischen der Begriffsverwendung von „Begriff“ in der Psychologie und der Philosophie. Kern ist aber dann seine heterogeneity hypothesis, wonach sich mindestens drei Arten von Begriffen (Begriffs-Theorien?) unterscheiden lassen: Begriffe als prototypes, als exemplars und als theories. Empirische Evidenz gibt es für alle drei Varianten (genauer wohl: das experimentelle Setting entscheidet das). Es folgen dann kritische Überlegungen zu weiteren neueren Ansätzen (Neo-Empirismus à la Prinz, Hybrid-Theorien, Multi-Prozess-Theorien), deren Widerlegungen mir aber nicht alle einleuchten. Ebenso nicht seine These, den Begriff „Begriff“ fallen zu lassen.

Sollte man nicht unterscheiden zwischen der theoretischen Frage, ab wann man im Prozess der Genese von „begriffsfähigen Entitäten“ von „Begriff“ sprechen will einerseits und der Frage, wie man empirisch untersuchen kann, welche Theorie von Begriff korrekt ist (gewiss, die Beantwortung dieser Fragen ist ein Wechselspiel). Zum ersten: Unterscheide folgende Fähigkeiten von Organismen:

Je nachdem wie stark man die Idee des Begriffs mit der Fähigkeit des Klassifizierens (braucht Klassifizieren eigentlich einen Klassennamen? Evt. klassifiziert man bereits auf Stufe A?) verkettet, desto früher wird man hier den Begriff des „Begriffs“ anwenden wollen.

Überlege dir folgende Dinge:


10.05.10 Seminar Biologie und Philosophie

Thema war der Text von Rita Astuti, Gregg E.A. Solomon und Susan Carey zu einer Studie beim madagassischen Volk der Vezo (Westküste, Fischer) zur Frage der kulturellen bzw. biologischen Bedingtheit von Begriffen bei Kindern und Erwachsenen. Ausgangslage ist die Beobachtung (vieler) Ethnologen, dass viele zentrale Begriffe (und damit zusammenhängende „folk theories“) durchaus sehr verschieden verstanden werden können. Ihr Beispiel: Verwandtschaftsbeziehungen und die Rolle biologischer bzw. sozialer Faktoren bei der Erklärung gewisser Merkmale von Kindern (z.B. ist Gesichtsform, Körperausprägungen etc. Ausdruck einer biologischen Verwandtschaft oder Resultat eines sozialen Geschehens (z.B. Kind hat Klumpfuss, weil die Mutter sich während der Schwangerschaft über Kinder mit Klumpfuss lustig gemacht hat). (ich und andere frage mich hier, wie weit eigentlich Befragungsstudien hier gehen können, Leute können z.B. wissentlichen Unsinn erzählen, weil der Unsinn eine Funktion hat). Sie formulieren die drei möglichen Varianten: Erstens, „unconstrained learning“ (d.h. Begriffe werden rein durch das kulturelle Setting geprägt – entsprechend vielfältig und unterschiedlich können Begriffe verstanden werden). Zweitens, innate conceptual content“: d.h. biologische Determinanten prägen (gewisse) Inhalte von Begriffen. Drittens, „donstrained conceptual construction“ als eine Mischform. Für die Details, lies das (lange) Paper. Sie verweisen darauf, dass ihre Resultate eher die zweite Variante plausibel machen (während die erste der Standard der Anthropologie sein).

Hinweise aus der Diskussion: es gibt (natürlich) auch in der Anthropologie und Ethnologie unterschiedliche „frames“: früher (ab ca. 1960er) schauten die Forscher vorab auf Unterschiede. Ab ca. 10-15 Jahren (W. Marshall) rücken Gemeinsamkeiten in den Fokus. Was mich interessieren würde: wie gehen unterschiedliche Kulturen mit (auf der biologischen Ebene vorliegenden) Mischformen grundlegender kategorialer Unterschiede um: z.B. Mann Frau, mit Intersex-Säuglichen als Mischform? Antwort: offenbar schafft man dritte Kategorie (zumindest in gewissen indonesischen Völkern).


26.-27.04.10 Didaktikkurs

Nur ganz wenige Notizen zusätzlich zu den Unterlagen: Das didaktische Dreieck, bestehend aus dem Dozenten, dem Stoff und dem Schüler. Kante Dozent - Stoff: Auswahl und Strukturierung. Kante Stoff - Student: Aneignen. Kante Dozent - Student: sozialer Prozess. Mögliche Hierarchisierung von Lernprozessen bzw. Ergebniskontrolle: Wissen reproduzieren - Wissen erläutern - Wissen anwenden - Synthese - Bewertung (letztere zwei könnte man auch umdrehen, denke ich).

Am Folgetag zwei Vorträge. Zahlen zur „Mediziner-Lücke“: Ausländeranteile 2008 im ambubulanten Bereich 14% und im stationären Bereich 30%. Pro Jahr gut 1000 Studienbeginner und gut 700 Abschlüsse. Ein Abschluss erlaubt heute nicht mehr das Tragen eines Doktortitels, sondern berechtigt nur noch zur Weiterbildung. Der medizinische Doktor kann aber nach 6 Studienjahren innerhalb eines Jahres gemacht werden (nicht 3 wie bei den anderen Studienfächern als Normgrösse gilt). Wichtig für mich betr. Anbieten von Kursen: www.vam.uzh.ch prüfen, marco.feistmann@dekmed.uzh.ch als Kontakt (E-Learning Koordinator). Kurse können im Rahmen des Mantelstudiums (10-15% des Studiums) angeboten werden (7 Vormittage à 4 Stunden). Zudem können Masterarbeiten betreut werden (ca. 4 Monate Arbeit, Leiter muss Habilitiert sein, Betreuer aber nicht).


12.04.10 Seminar Biologie und Philosophie

Thema war: Haben Tiere Begriffe (Überzeugungen). Dazu drei Texte: Davidson (der Text im Reader ist der falsche, korrekt ist: Rationale Lebewesen). Gedankenexperiment mit dem Hund, der die Katze jagt und die Katze vermeintlich auf der Eiche wähnt. Kann man sagen, dass der Hund die Überzeugung habe, dass die Katze auf der Eiche ist. Davidson meint: Nein. Dazu müsse man einen Begriff von Überzeugung haben, was ohne Sprache nicht gehe (das „holistische Argument“) Nida-Rümelin bestreitet das, sein Beispiel: der Blindenhund. Wie kann man dessen Verhalten (mit Blick auf seine Funktion als Blindenhund, z.B. Ausweichen bei Hindernissen, die für ihn keines sind, aber für den Blinden, den er führt) am besten erklären? Mit Bezug auf Überzeugungen, die der Hund hat. Dann noch einen Text von Allen, der drei Kriterien aufführt, deren Vorhandensein auf das Verstehen von Begriffen deuten: 1) Tier kann klassifizieren. 2) Tier kann Klassifikationsfehler erkennen. 3) Tier kann von Klassifikationsfehlern lernen. Doch reicht die Fähigkeit des Klassifizierens aus (müsste man nicht auch wissen, ob man dann auch einen Klassenbegriff wirklich hat?).


29.03.-31.03.10: Workshop Philosophical Implications of Empirically Informed Ethics

Nachfolgend die Notizen zum dreitägigen, von mir mitorganisierten Workshop. Detaillierte Informationen finden sich in den Proceedings - hier werden nur die wichtigsten Gedanken sowie daran anschliessende Bemerkungen und Ideen vorgestellt (habe etwas zu lange gewartet die Notizen zu verschriftlichen, deshalb ist die Sache eher etwas unvollständig).

Sarah Brosman stellt ihre gute Übersicht zum Stand des Wissens betr. „evolutionäre Vorformen von Moral“ vor. Zitat von Darwin zeigt, dass das Interesse an dieser Frage zu Anbeginn der Evolutionstheorie da war. Sie unterscheidet drei Ebenen von moralischem Verhalten (das englische „behavior“ ist da breiter als das deutsche „Verhalten“): Erstens, Verhaltensweisen, die zu sozialer Regulation beitragen (solche Verhaltensweisen können existieren, auch wenn die Betroffenen selbst das gar nicht wissen); zweitens, Mechanismen, die soziale (moralische) Verhaltensweisen begleiten (wie z.B. moralische Emotionen); drittens, moralische Urteile (das dürfte nur Menschen zugesprochen werden und das ist nicht ihr Thema). Zur ersten Ebene: solche Verhaltensweisen finden sich im Tierreich durchaus, insbesondere bei Primaten:

Insgesamt betrachtet scheinen die Elemente Respekt vor Besitz, Reziprozität, negative Reaktionen gegenüber Ungleichheit und gewisse Formen von prosozialem Verhalten mögliche Bausteile einer Vormoral zu sein, die sich bei unseren evolutionär Verwandten zeigen könnten (mich würde interessieren, ob Neid hier die zentrale moralische Emotion ist)

Danach Jesse Prinz mit der Frage, „Woher kommt Moral?“. Hierzu zuerst die Klärung, dass neuere empirische forschung klar gezeigt habe, dass moralisches Verhalten emotionale Komponenten habe (doch was heisst das eigentlich genau?). Seine Formulierung: „emotions inform moral judgments“ (können auch Deliberationen zu moralischen Emotionen führen?). Die Frage ist nun: welche Emotionen sind relevant: Empathie (ist das überhaupt eine Emotion?)? Eher nicht, spielt in vielen moralischen Kontexten keine Rolle. Missbilligung? (ist das eine Emotion?) Scheint eher eine Art Gruppenbegriff zu sein. Vernünftiger scheint folgende Einteilung:

Dann verknüpft er noch moral judgments mit moralischen Emotionen und moral values mit moralischen Gefühlen (sentiments). Es folgen Ausführungen zur Frage, woher Moral kommt. Hier die vier Positionen Starker, moderater und schwacher Nativismus und Anti-Nativismus. Anhand der Trolley-Dilemmas untersucht er dann gängige Theorien wie moral grammar (wird abgelehnt), domain theory (hier spielt die moral-conventional-distinction eine wichtige Rolle und Schädigung/Verletzung (harm) ist zentral - doch verstösse gegen harm werden ja je nach Kontext unterschiedlich beurteilt) und evolutionäre Ethik. Hinweis auf die vielerlei Effekte, die moral judgments beeinflussen können (z.B. nur schon, wie man experimentelle Spiele nennt: heissen sie „Wall Street Games“, so spielen die Leute offenbar anders). dann der zentrale Fokus auf die kulturellen Aspekte von Moral (und daran angeknüpft die Kulturgeschichte der Emotionen).

Dann die Nachmittags-Session, erste Session: Anne Burkard und Jan Gertken diskutieren empirische Gegenargumente gegen den moralischen Intuitionismus. Moralische Intuitionen werden verstanden als Ausgangspunket in moralischen Argumentationen, die nicht weiter begründet werden (können) („not held inferentialy on the basis of other beliefs“) und der Intuitionismus behauptet, dass der Verweis auf solche Intuitionen sowohl akzeptabel als auch unverzichtbar ist. Sie zeigen dann, dass empirische Studien (framing effects, das „master-argument“ von Sinnott-Armstrong) zeigen würden, dass moralische Intuitionen „unzuverlässig“ sind. die Frage bleibt aber, inwieweit das Wissen um Gründe für Unzuverlässigkeit die Stärke des Bezugs auf Intuitionen nicht doch zu stärken vermag. Dann Julia Langkau zur Frage, ob Philosophen eigentliche Experten im moralischen Beurteilen sind. Sie führt die Debatte über die Frage, was eigentlich moralische Expertise ist. Hierzu Einführung des Begriffs der moralischen Weisheit basierend auf Lebenserfahrung (von denen ein Experte nicht unbedingt mehr haben muss als ein Laie). Schliesslich Alberto Masala zum Verhältnis von Tugendethik und der Psychologie der Exzellenz. Exzellenz ist nur selten möglich (braucht konstante Anstrengung), deshalb die Idee einer „moralischen Arbeitsteilung“ (wirkt sehr unausgegoren, meines Erachtens ein falsches Verständnis, was moralische Probleme sind: einzelner ist mit seinem Leben viel stärker damit verwoben, als dass man einfach abtrennen und aufteilen kann).

Zweite Session, zuerst mit Claudia Rudolf von Rohr. Empirische Studie zur Frage, wie man eigentlich soziale Normen in Primaten finden kann, wenn man das Mittel der Sprache nicht hat. Idee: Normen generieren soziale Erwartungen, die sich in entsprechenden Verhaltensweisen widerspiegeln. Drei Gruppen von Normen: „statistische Normen“, „quasi-Normen“ (eine funktionale Moral), und „Proto-Normen“. Experimentelles Setting mit Filmen (Infantizid) und Affen als „bystander“. Bei manchen Probanden finden sich in der Tat Reaktionen auf diese filmisch gezeigte Norm-Verletzung. Dann Adrian Jaeggi mit seinen Food-sharing Experimenten. Er findet Reziprozität bei Schimpansen, nicht aber bei Bonobos.

Zweiter Tag, Beginn mit Hauke Heekeren: Er bringt einen konzisen Vortrag zur Frage, was eigentlich die neuen Ergebnisse der „neuroscience of ethics“ bedeuten. dazu hab ich ja selbst schon einiges gemacht - sein Paper ist eine gute Zusammenfassung. Hinweis auf den Moral Judgment Test (Konstanz), der interessant sein könnte, ihn genauer anzuschauen.

Danach der sehr interessante Vortrag von Shaun Nichols. Ausgangspunkt ist die Frage nach der Rolle und Reichweite von „debunking arguments“ in der Moral (analog wie das berühmte debunking argument von Freud betreffend der Religion). Sein normativer Startpunkt ist „ethical conservatism“ (bestimmte ethische commitments brauchen keine weitere Rechtfertigung - ist das nicht nahe beim Intuitionismus?). Verweis auf das Paper, wo dann die Sache am Beispiel des moral luck untersucht wird.

Erste Nachmittags-Session mit Hanno Sauer, der vertieft auf die Frage eingeht, ob und in welchem Sinn Emotionen für moralische Urteile wichtig sind. Ausgangspunkt sind die Thesen von Haidt/Greene, die mit den nun schon gängigen Argumenten kritisch untersucht werden. Wichtig für ins bleibt die „rational answerability“, Gründe sind „Überzeugungs-Ursachen“. Tom Bates untersucht dann die Milgram-Experimente genauer und analysiert, wo sich Spuren von Mitgefühl finden (diese finden sich offenbar in den Taten: d.h. die Probanden strafen zwar, aber zeigen dennoch Mitgefühl - offenbar ein vernachlässigter Aspekt in der Debatte um die Relevanz dieser These bezüglich menschlicher (Un-)Moral). Benoit Dubreuil war krank (und konnte auch im Verschiebungsdatum am Mittwoch nicht sprechen). Ersatz war der vorgezogene Vortrag von Nicole van Voorst. Ihr Thema waren Stereotypen, deren entstehung sie mit einem Social Categorization Cluster erklären will. Ziel: Stereotypen und Vorurteile sind moralisch neutral, Diskriminierung ist das moralische Problem (oder quasi: nur gedankliche Diskriminierung ist noch nicht das Problem).

Dieneke Hubbeling sprach dann zu den Themen „moral dumbfolding“ (Gründe als post-hoc Rechtfertigungen) und die moral-conventional-Unterscheidung. Interessant war insbesondere die Bemerkung zur König-Studie (mit den Frontahirn-Geschädigten): bei den meisten Dilemmas zeigten diese keine Abweichung, wenn man die Daten genauer ansieht. Adriano Naves de Brito schliesslich mit einem theoretischen Vortrag zur Semantik der Naturalisierung von moralischen Werten (schöner Vortrag - war aber schon müde).

Der dritte Tag beginnt mit Erich Witte. Ihn interessiert die Praxis des moralischen Urteilens (z.B. bei Entscheiden zu Betriebsschliessungen), sie machen empirische Werteforschung. Sein Problem (von dem er von den Ethikern eine Lösung will): Wie sieht die Ontologie des moralischen Raums aus? Nach was soll er fragen? Sein Schema ist eher einfach (und lässt fragen offen) mit den vier Klassen: utilitaristische, deontologische, hedonistische und intuitionistische Gründe. Paper ist interessant (dort genauer nachschauen). Seine Kernfrage sollte man wirklich genauer anschauen (wie kommt man bottom-up zur gewünschten Ontologie).

Dann der Vortrag von Johannes van Delden - ein wirklich interessante Konkretisierung des Überlegungsgleichgewichts von Rawls (Paper anschauen!). Die Frage ist wirklich, inwieweit man die Idee des Überlegungsgleichgewichts in ein praktisch nutzbares Instrument verwandeln könnte (Und eine andere Idee: kann man die Rechtfertigungsbeziehung/Stärke von Gründen in Funktion des Kontextes als Distanzfunktion nehmen?).

Schliesslich die Nachmittags-Sessions kurz zusammengefasst: Zuerst Tuija Takala und Matti Häyry mit einem doch eher konventionellen Vortrag zur Frage, was der Platz der empirischen Daten und was der Platz der normativen Überlegung ist (mit klarer Trennungslinie - und das würde ich bezweifeln). Der Vortag von Tanja Krones ist dann fast schon zu umfangreich mit Material befrachtet, um ihre These klar zu strukturieren. Und ist wirklich generelle ine auflösung der Grenzen zwischen Disziplinen wissenschaftssoziologisch beobachtbar (nicht eher eine Ausdifferenzierung). Dass aber Bioethik quasi nicht ein Gärtchen für sich sein soll, ist sicher (bzw. hoffentlich) unbestritten. Der Vortrag von Stefano Cossara zur (schon mehrfach gestellten) Frage „Can Neuroscience change the law“ bringt die wichtigsten Argumente der Debatte gut zusammen mit einem klaren Plädoyer, warum die Ergebnisse der empirischen Moralforschung nicht zu einer umfassenden Revision des (Straf-)Rechts führen werden. Die Überlegungen von Nichem Haar zum Situationism waren dann ebenfalls interessant - nur denke ich, dass die Ergebnisse dieser Forschung nicht Teil des Problems, sondern Teil der Lösung sind: Wir erfahren durch solche Forschungen mehr über die Bedingungen des eigenen (menschlichen) moralischen Urteilens.


26.03.10 Seminar Biologie und Philosophie

Im Rahmen des Seminars der Vortrag von Jesse Prinz zu seinem Buch Furnishing the Mind. Concepts and their Berceptual Basis. Er untersucht drei wichtige Funktionen/Aspekte von Begriffen: Semantik, Kategorisierung, Beziehung zum Denken. Er geht von klassischen psychologischen Theorien zu Begriffen aus (prototype-theory, set of representations, theory theory) und den Antworten von Philosophen auf diese Theorien (z.B. Fodor). Ihn interessieren die Gründe, warum psychologische Theorien (z.B. prototype theory) von den Philosophen abgelehnt wurden. Nachfolgend nur einige wenige Stichworte (lies das Buch genauer!).

Ein klassisches Problem der prototype theory: was heisst Ähnlichkeit zu einem Prototyp? Hier erscheint ein Ansatz, der Begriffe als Definitionen ansieht, besser. Doch man kann Begriffe in der Regel nicht sauber definieren, das Problem der prototype theory erscheint da weniger gross. Ist eine causal theory (eine Wahrnehmung x bewirkt eine Auslösung des Begriffs von X als Repräsentation von X) eine Lösung? Auch hier zeigt der genauere Blick, dass die Probleme mindestens gleich gross sind wie bei der prototype theory (die Prinz offenbar nicht schlecht findet).

Was ihn (und mich!) sehr interessiert: Begriffe und Kategorisierung. Hier braucht man (?) eine Theorie des Begriffs, um das Problem der Täuschung lösen zu können. Ein Begriff ist eine temporäre Repräsentation (im Arbeitsgedächtnis) des Wissens über diesen Begriff („prototypes are defaults“).

Ein Grundproblem des Themenkomplexes „Denken“: Wie baut man concepts zusammen? Ist eine compositionality (also ein additives Zusammensetzen von Begriffen, ?) wirklich nötig? Hierzu präsentiert er eine Reihe interessanter psychologischer Experimente (z.B. wie man Wahrnehmungen „primen“ kann) - das zeigt, dass Begriffe deutlich stärker an empirische Aspekten gebunden sind, als man in der Philosophie meint (d.h. Prinz wurzelt stark in der Tradition von Locke). Sein Ansatz: Begriffe als „proxytypes“ (lies das Buch!).


15.03.10 Seminar Biologie und Philosophie

Vortrag von Matthias Jung zu seinem Buch zur „Anthropologie der Artikulation“. Hierzu nur einige wenige Notizen und Gedanken. Er spricht davon, dass das Verständnis der Artikulationsfähigkeit in eine „evolutionäre Kontinuität“ eingebunden werden soll (sicher richtig - doch man sollte sich einmal fragen, inwieweit man von „Kontinuität“ sprechen kann. Ist eine Frage der Zeitskala und Granularität, zudem dürfte es Sprünge geben). Jung versteht Menschen als verkörperte Symbolversteher (sicher richtig). Jede Artikulation hat eine „doppelte Spur“: sachlogischer Zusammenhang, materielle Spur (sicher auch richtig - doch wie sieht es eigentlich mit dem „inneren Sprechen“ aus - aucheine Form von Artikulation? Und was ist die materielle Spur hier, einmal abgesehen davon, dass inneres Sprechen natürlich auch Gehirnaktivität braucht). Jung braucht zudem einen klassischen Handlungsbegriff („erst Denken, dann Handeln“) und operiert mit dem Gestaltbegriff. Er orientiert sich stark an den amerikanischen Pragmatisten, insb. Dewey und Peirce. Von letzterem übernimmt er die grundlegende Strukturierung/Unterscheidung zwischen Zeichen und Symbol sowie indexikalische Zeichen (Kausalbeziehung zwischen Zeichengeber und Zeichen, z.B. Feuer-Rauch) und ikonische Zeichen (die zueinander in einer Ähnlichkeitsbeziehung stehen).

Danach Erläuterungen zum verteilten Schema (die unsere Anthropologen, van Schaik, als z.T. veraltet ansehen): eine Vereinigung der Klassifizierungen von Martin Donald, Peirce und Robert Brandom):

Ein Problem gemäss Jung bei der Untersuchung solcher Fragen: wir können uns die sub-symbolische Kommunikation gar nicht mehr vorstellen. Was aber eigentlich seine These war, blieb mir unklar.


22.02.10 Seminar Biologie und Philosophie

Zwei einführende Vorträge von van Schaik und Glock. Ersterer sprach zum Spezies-Begriff, bei dem sich die Grundfrage stellt: sind Spezies Ausdruck einer natürlichen Klassifikation oder Resultat unseres Wahrnehmungsapparates (ein „neurobiologisches Artefakt“). Der kurze historische Überblick unterscheidet zwischen der Pre-Darwin und Post-Darwin Welt:

Interessant ist, dass sich eine so genannte „folk taxonomy“ nicht allzusehr von einer wissenschaftlichen Taxonomie unterscheidet. Angesichts des Fressverhaltens von Tieren (was gegessen und was verschmäht wird) muss man zudem annehmen, dass auch Tiere so was wie einen Artbegriff haben (oder zumindest die Naturdinge klassifizieren können).

Das Konzept von May hat aber zahlreiche theoretische und praktische Probleme und mit Gegenbeispielen zu kämpfen: Was macht man, wenn über lange Zeit getrennte Tiergruppen (die sich phänomenologisch als unterschiedliche Spezies identifizieren lassen) im Labor doch paaren lassen? Warum sind an fast allen Orten unterschiedliche Arten präsent, ohne dass eine geografische Trennung stattgefunden hat? Und was macht man eigentlich mit der Welt der Mikroorganismen? So kam es zu zahlreichen weiteren Artbegriffen (mindestens 26 gemäss dem Text im Reader): Wichtig insbesondere das phylogenetische Konzept (Arten als „Zweige“ von Stammbäumen) und das ökologische Konzept (Arten besetzen bestimmte ökologische Nischen). Das cohesion species concept (Templeton 1989) mischt das zu den Kriterien „gemeinsame phylogenetische Abstammung“, „limited gene flow“ mit anderen Spezies, „ecological distinct“. Zudem: an bedenke die politische Relevanz des Artbegriffs im Kontext der so genannten Arterhaltung und Biodiversity-Debatte.

Glock mit einigen grundlegenden philosophischen Ausführungen zum Begriff „Begriff“: Begriffe sind zweifellos in vielen Wissenschaften (Philosophie, Logik, Geschichte, Psychologie, Wissenschaftstheorie) wichtig als Themen. Es gibt dabei zahlreiche unterschiedliche Verständnisse von Begriffen: als Universalien, Komponenten von Propositionen, als Träger von Bedeutung (quasi „Worte“ der Sprache des Geistes), als Arten des Gegebenseins (Frege), als Bezeichnungen für bestimmte Prozesse in Gehirnen (Repräsentationales Verständnis von Begriffen). Und man kann unterschiedlich an Begriffe herangehen: subjektivistisch, objektivistisch, intersubjektivistisch.

Dann kann man unterschiedliche Arten von Begriffen unterscheiden: Allgemeinbegriffe (Klassifikatoren von Einzeldingen, token), komparative Begriffe (mehrstellige Prädikate), Individualbegriffe (Einzelnamen), logische Begriffe, raumzeitliche Begriffe etc. Die Suche nach Begriffsarten ist dabei erneut als Klassifikationsprozess aufzufassen mit z.T. unscharfen Grenzen (z.B. deskriptiv – evaluativ – normativ; oder Wahrnehmungsbegriffe vs. theoretische Begriffe).

Für die Philosophie sind Begriffe je nach Philosophieverständnis mehr oder weniger zentral: versteht man Philosophie als Begriffsanalyse, dann sind sie natürlich im Zentrum. Hier muss beachtet werden, dass unterschiedliche Formen der Definition von Begriffen bestehen (explizit, implizit, rekursiv, geneaologisch, via Familienähnlichkeit (Wittgenstein) etc.). Zahlreiche philosophische Probleme sind in ihrer Ausformulierung an bestimmte Formen des Verständnisses und Umgangs mit Begriffen verknüpft.


© 2024 go-leon* websolutions gmbh drucken schliessen