Logo go-leon* websolutions gmbh
Unterer Quai 23
CH-2500 Biel-Bienne 1
fon: +41 32 323 37 26
fax: +41 32 323 15 31
mail: info@go-leon.ch
web: www.go-leon.ch



28.-29. November 2013: SAGW-Symposium „Digital Humanities“

Markus Zürcher führt kurz in das Programm ein: Digital Humanities (DH) – genauer: Digitalisierungsprojekte – sind schon seit längerem ein Schwerpunkt der SAGW. Derzeit läuft eine Ausschreibung zum Aufbau von Forschungsinfrastruktur ab 2017 (bis 31.1.14).

Dann folgt Michael Hagner mit einem Einführungsvortrag. Als Wissenschaftshistoriker betreibt er selbst nicht DH, sondern er berichtet aus einer beobachter-Position. Er hält die Rede von einem „digital turn“ für falsch, eher eine Addition von Methoden. Auch ist zu sagen, dass Werkzeuge und Methoden im Wesentlichen von aussen kommen, d.h. es geht um Anwendungen des Computers in den Geisteswissenschaften – und als Werkzeug macht das natürlich durchaus Sinn. Aber mit DH wird auch eine dritte Idee transportiert: eine Annäherung an das naturwissenschaftliche Ideal der Quantifizierung. Dieser Punkt ist problematischer, da eine Quantifizierung oft an den wesentlichen Fragen vorbeizielt. Der Aufschwung der DH in den USA könnte auch eine Reaktion auf die dortige Marginalisierung der Geisteswissenschaften sein. Er sieht vier mögliche Effekte auf die Geisteswissenschaften: Veränderung der Autorenschaft (Gruppen statt Individuen), Praxisverschiebung in Richtung Quantifizierung, Veränderung epistemischer Tugenden (z.B. Verlinkung statt Argumentation; Bereitstellung von Information als Tugend), neue Publikationsformen.

Martin Volk spricht dann als Computerlinguist über die Auswirkungen der DH auf Sprach- und Literaturwissenschaften. In der Computerlinguistik selbst ist natürlich der Einsatz von Computern für Stilforschung, Sentiment-Analyse, Text-Mining und maschinelle Übersetzung gang und gäbe. Er sieht sieben Aspekte des Wandels: Erstens, der schnelle Zugriff auf viele Daten durch Projekte wie Gutenberg oder Google Books. Das ist natürlich eine enorme Datenmenge, die z.B. für die Verbesserung von Übersetzungsprogrammen wichtig sein können. Zweitens, die schnelle Suche (was sich auch auf den Schreibprozess auswirkt). Drittens, ein schnelles zählen, messen und vergleichen. Viertens, automatisches Klassifizieren (entsprechende Programme erreichen z.B. bei der Worttypen-Erkennung Erkennungsraten von bis zu 98%). Fünftens, neue Visualisierung von Texten (z.B. die „wordel“). Sechstens, die einfache Verlinkung von Texten. Und siebtens das gemeinschaftliche Arbeiten an Texten (Wikis).

Claire Clivaz und Michael Stolz sprechen über die Auswirkungen auf die Editionswissenschaften. Erneut zum Projekt Gutenberg, das für Geisteswissenschaftler weit brauchbarer ist als Google Books. Digitalisierung erlaubt ein besserer Blick auf die „Beweglichkeit von Texten“, wie sich also ein Buchmanuskript eines Romans im Laufe der Zeit ändert. Präsentation des Projektes Parzival, ein Programm zur Handschriftenerkennung – sicher nützlich, um z.B. Fragmente einander zuordnen zu können.

Corinne Pernet spricht über die Auswirkungen auf die Geschichtswissenschaften. Hinweis auf die zahlreichen Stolpersteine in der Praxis, um z.B. Zugang auf Datenbanken zu erreichen (Hinweis auf HT? Trust, scheint falsch geschrieben).

Margarete Pratschke schliesslich spricht über die Auswirkungen auf die Kunstgeschichte. Hier kann die Digitalisierung offensichtlich auf zu Defiziten führen (Fokus auf das optische, Verlust der anderen Sinne und der Atmosphäre eines Kunstwerks). Man muss hier auch erkennen, dass Digitalisierung bildende Kunst weit grössere Datenmengen erzeugt als Digitalisierung von Texten. Zudem braucht es (sprachliche) Meta-Daten, die man kaum automatisiert erzeugen kann. Hinweis auf die ökonomischen Interessen, die hinter Big Data in den Geisteswissenschaften stecken können. Auch sollte man nicht vergessen, dass Geisteswissenschaften einen Beitrag zur Digitalisierung geleistet haben, z.B. Gestaltung der Interfaces. Interessante Bemerkung bei der nachfolgenden Diskussion: Die Landesbibliothek gibt zehnmal mehr Geld dafür aus, um einen Meter Archiv (Papier) in digitalisierter Form fachgerecht zu archivieren (da müsste man nachfragen, warum eigentlich).

Am zweiten Tag hatte ich den Vormittag verpasst wegen Sitzungen. Ingrid Kissling-Näf vom SNF sprach darüber, dass der SNF kein spezielles Programm für DH eingerichtet habe. In der Abteilung 1 (90 Mio./Jahr) gehen rund 12-14% der Gelder in Infrastruktur, d.h. es sind durchaus Budgetposten da, um z.B. Digitalisierungsprojekte umzusetzen. Allerdings ist der SNF kein Datenbankbetreiber. Man darf heute Projektgelder für open access einsetzen. Ein Wunsch: Geisteswissenschaftler in der Schweiz sollen internationaler werden.

Katharina Eggenberger sprach generell über die verschiedenen Finanzierungsmöglichkeiten des Bundes. Klar ist: man will keine neuen Institutionen für DH aufbauen, sondern bestehende vernetzen und mit entsprechenden Aufgaben betreuen.

Stefan Andreas Keller schliesslich spricht von seinen Erfahrungen als E-Learning-Koordinator der UZH – ein Bereich, der zunehmend Sammelbecken für DH wird. Es stellt drei Beispiele vor: Ad Fontes (Trainingsplattform für Quellenanalyse), Timeline of Historical Film Colors (Datenbank zur Farbübertragung bei Filmdigitalisierung) und LitLink (ein Wissens- und Literaturverwaltungsprogramm). Generelle Schwierigkeiten solcher Projekte: Fehlende Langfristigkeit bei der Planung, fehlende Kundenorientierung, kompetitive Umgebung (Internet Startups), Erwartung der Nutzer ist kostenloser Gebrauch und Mittel sind zunehmend begrenzt. Wenn man ein Angebot für Dritte machen will, sollte man sich vom „akademischen Projektdenken“ verabschieden und mehr im Sinn von Business-Plänen und dergleichen arbeiten.


25. November 2013: Vortrag „Digital Epidemiology & Big Data“

Marcel Salathé zur Veränderung der Epidemiologie mittels der Nutzung von „Big Data“ (er mag den Ausdruck nicht). Klassisch werden epidemiologische Daten durch die binäre Interaktion Arzt-Patient gewonnen – meistens aggregierte, kontextlose Daten, die schwer zugreifbar sind; allerdings valide sind. Durch die Nutzung sozialer Netzwerke sind nun aber Daten (Facebook, Tweets etc.) verfügbar, die individuell, potenziell kontextreich und verhältnismässig einfach zugänglich sind – es stellt sich aber das Validierungsproblem (und Auswertungsproblem. Es folgen einige Ausführungen, warum es immer mehr solche „geteilte“ Daten geben werde (allerdings halte ich es für falsch, dies mit den allgemeinen Zuwachsraten gespeicherter Daten und Internet-Traffic zu belegen, das können z.B. auch HD Videodaten sein). Bekanntestes Beispiel einer solchen „data driven“ Epidemiologie war die „flu detection“ von Google – allerdings ist das System in letzter Zeit nicht mehr sehr zuverlässig (weil es nicht ständig gewartet wurde – ein Grundproblem, wie danach deutlich wird). Derzeit gibt es einige interessante, publizierte Beispiele (auch von ihm, unter www.salathegroup.com zugänglich), z.B. „web-based pharmacovigilance“ (zwar post-facto Daten, aber man hätte die Nebenwirkung einer bestimmten Wirkstoff-Kombination rascher herausfinden können als auf dem klassischen Weg). Data-driven Epidemiologie braucht drei Schritte: data mining, analyse, Visualisierung – schritt 1 braucht 90% der Arbeit. Sein Studienobjekt: Impfwunsch im Fall der H1N1-Epidemie. Sie hatten 0.5 Mio. Tweets ausgewertet – zunächst human classification, danach lerne der Algorithmus die Klassifizierung. Ist nicht so einfach, eine gelernte Klassifizierung kann man nicht auf ein neues Problem anwenden, man muss immer wieder von vorne beginnen. Was sie finden: positive/negative sentiments hinsichtlich Impfwunsch korreliert stark mit tatsächlicher Impfrate (was nicht erstaunt). Dynamische Effekte sind interessanter: Negative Settings (Kopplung an Tweed-Zulieferer mit negativer Einstellung) verstärken sich, d.h. werden weitergeleitet, positive eher nicht. Positive Tweeds können gar negative auslösen (um das zu verstehen braucht man ein psychologisches Modell der Twitterer). Man könnte dieses psychologisches Modell aus den anderen Tweeds einer Person generieren (haben sie aber noch nicht gemacht).

 


21.-22. November 2013: Workshop “Wandel von Autonomie und Kontrolle durch neue Mensch-Technik-Interaktion

Dieser zweitätige Workshop soll dazu beitragen, dass vom Fraunhofer ISI neue Forschungsthemen zuhanden des Bundesministeriums für Bildung und Forschung identifiziert werden. In der Einführung wird das Konzept nochmals erläutert: Experteninput und Diskussion zum vorab verschickten Vorschlag (vorab betreffend die Autonomie-Dimensionen). Zwei Themenfelder, in denen man neue Formen von Mensch-Technik-Interaktionen (MIT) erwartet: Gameficiation, Big Data. Die Autonomiedimensionen werden dann nochmals anhand eines Beispiels (Verbreitung von Exergames in Altersheimen, die zu Turnieren zwischen Heimen via Internet vermittelt geführt haben). Der erste Input kommt von Paul Lukowicz. Sein Schwerpunkt betrifft die Dimension: Transparenz der Effekte. Er sieht zudem in der Abstufung Werkzeug-Gebrauch – Maschinen-Bedienung – System-Interaktion noch eine weitere Stufe: Ko-Agieren: technische Systeme sind nicht nur Vermittler zwischen Menschen, sondern Menschen sind auch Vermittler zwischen technischen Systemen. Er bringt Beispiele solcher selbstorganisierter Netze: „Dichtekarten“ mittels Apps generiert, die Nutzerpositionen zeigen (z.B. bei Grossanlässen, wie der Züri-Fescht-App). Nutzer generieren Content, die dann wieder Nutzer beeinflussen – die Dynamik dieser Rückkopplung ist ein wesentliches Element, das Autonomie beeinflusst (noch unklar, in welche Richtung).

Karsten Weber plädiert in seinem Input für analytisch klare Grenzen zwischen den verwendeten Begriffen. Menschen neigen dazu, zu antropomorphisieren (also z.B. einem technischen System Autonomie zu unterstellen), doch das heisst nicht, dass das System autonom ist – obgleich man den Effekt der Unterstellung natürlich untersuchen muss. Er verweist auf die enge Kopplung von Autonomie und Verantwortung – diese braucht die klaren Abgrenzungen. In der Diskussion dann: faktisch wird es wohl aber schwieriger, entsprechende Verantwortlichkeiten rückverfolgen zu können, wenn man technische Systeme bewusst mit mehr Freiheitsgraden ausstattet. Man wird möglicherweise mit Zuschreibung von Verantwortung operieren müssen bzw. das Konzept der Modalverantwortung verwenden.

Josef Wiemeyer wendet in seinem Beitrag das vorgeschlagene System von Autonomiedimensionen auf Serious Games an. Ein führ ihn wichtiger Punkt: Inwieweit weiss man um die zur Verfügung stehenden Optionen bei Entscheidungen – dies sollte als weitere Autonomiedimension hineingenommen werden. Zudem eine Besonderheit der Nutzung von Spielen: man will Distanzverlust, um Flow-Erlebnisse zu erreichen. Es stellt sich also die Frage der Bewertung der einzelnen Autonomiedimensionen: je nach Kontext dürfte diese eine andere sein.

Sven Krome untersucht, inwieweit Gamefication eine Gefährdung oder eine Förderung von Autonomie darstellt. Er zitiert unter anderem die Analysen von Juul (2005) zum Spielbegriff: Paidia weist er Autonomie1 (gemäss vorgeschlagener Klassifikation) zu, Ludus Autonomie2. Wichtig auch: die Bedeutung der Motivation (die ja durch Gamefication erreicht werden soll): man muss sich überlegen, inwieweit man motiviert ist, autonom zu handeln. Verweis auch auf die self-determination theory mit den drei Standbeinen competence, autonomy und relatedness. Das Problem der Motivation: neurologisch wird dafür dasselbe System gebraucht (Belohnungssystem), das bei Suchtverhalten dysfunktional ist – insofern kann Autonomiefähigkeit labil sein.

Werner Rammert bringt den Begriff der soziotechnischen Konstellationen in die Diskussion. Theorien haben drei Zielgrössen, die komplementär sind: Allgemeinheit, Einfachheit, Genauigkeit – die vorgeschlagene Theorie soll vor allem die erste und dritte Grösse verstärken. Auch zu beachten ist die soziale Dimension der Erwartungshaltung der Nutzer. Zudem muss man sich darüber unterhalten, was die technischen Systeme autonom macht: unter anderem Lernfähigkeit und die Fähigkeit, neue Regeln zu generieren. Ein weiteres Problem: die jetzigen Dimensionen verwenden verschiedene Transparenzbegriffe. Zudem muss man normativ auch bemerken, dass Maximierung von Transparenz nicht immer gut ist. Bei Technik gilt eine grundlegende Antinomie von Leistung und Einsicht (Blumenberg): man will Autonomie-Reduktion zur Leistungssteigerung. Zudem sollten die sozialen Dimensionen in der vorgeschlagenen Analyse besser zur Geltung kommen: Erwartungen an ein System verändern sich im Vollzug, Interaktionsdauer & Erfahrung. Zudem verändern lernende Systeme selbst die eingeschriebenen Quasi-Erwartungen an den Nutzer. Man muss zwischen Nutzungsfelder, Nutzersituationen und Nutzerrollen unterscheiden.

Klaus Wiegerling (am nächsten Tag) plädiert für eine Stärkung der philosophischen Analyse. Fokus auf den Mensch, der das System nutzt, sollte verstärkt werden. Inwieweit adaptieren sich Menschen an das Automatenhafte? Inwieweit agieren Menschen, wenn sie mit solchen Systemen interagieren, immer mehr wie Maschinen? Inwieweit trägt dies zur Stereotypenbildung bei? Viele Formen gängiger Interaktion (zwischen Menschen) haben ein Element des Aushandelns, zunehmende Erfahrung der Interaktion mit autonomen technischen Systemen könnte dazu führen, dass wir mehr im Sinn des Auftrag-Erfüllens handeln. Weiter wird auch die Verknüpfung von Autonomie und Verantwortung betont. Hinweis auf Fichte und seine Idee der Setzung des Ichs gegen die Welt. Schliesslich auch eine Bemerkung, dass zwischen Kontrolle und Steuerung stärker unterschieden werden sollte. Autonomie beinhaltet auch die Fähigkeit, eigene Grenzen zu erkennen – das sollte man von autonomen technischen Systemen auch verlangen sollen, will man sie so nennen. Danach folgte mein Beitrag.

Einige Elemente der Schlussdiskussion: Es braucht einen stärkeren Fokus auf den Menschen in der Interaktion (die meisten Dimensionen betreffen das technische System); man muss nicht eine 1:1, sondern eine n:n-Relation untersuchen (d.h. viele Menschen die viele Systeme nutzen); man muss genauer anschauen, wie sich diese Interaktion in zeitlicher und räumlicher Hinsicht entwickelt; die Autonomie-Dimensionen erfassen kein statisches, sondern dynamisches System: man muss dieses Prozesshafte besser einbeziehen; man muss das Wechselspiel zwischen normativem Autonomieverständnis und empirischen Autonomie-Fähigkeiten besser untersuchen.

 


09.-10. November 2013: Society for Neuroscience Meeting

Von den vielen Session habe ich nur die DBS-Session konzentriert gehört (leider den ersten Vortrag von Lee weitgehend verpasst: neue Elektrodentypen, Nanotechnologie zur Verbesserung der Elektrodenflächen, Elektroden, die auch direkt Neurotransmitter abgeben sollen – alles noch präklinisch). Sehr interessant war der Vortrag von Cameron McIntyre: Nutzung computational models um zu verstehen, wie die Stimulation wirkt. Man geht immer mehr davon aus, dass es um white matter Stimulation geht – also nicht um die Beeinflussung der Neuronen im STN, sondern um die (beideitige) Propagation von Aktionspotentialen entlang den Axonen (also u.a. kortikale Neuronen, die dann beeinflusst werden). Hinweis auf die grossen Schwierigkeiten der Anpassung der Stimulation bei psychiatrischer DBS: Depressive werden quasi durch Knopfdruck durch die unterschiedlichsten Gemütszustände getrieben – das am eigenen Leib zu erleben ist geradezu traumatisch für die Leute. Die neuen Ansätze: Mittels diffusion tensor imaging die tracks entlang der Elektroden zu  rekonstruieren und dann ein Computermodell zu entwickeln, das deutlich zeigt, wie die Stimulationseffekte aussehen werden – derzeit noch eine Aufgabe für Supercomputer (Lujan et al, Brain Stimulation, 2013). Sie suchen nach Verfahren, das zu vereinfachen, um den Zusammenhang zwischen Stimulation, Ausrichtung der white matter und den klinischen Effekten besser zu verstehen. Letztlich will man damit bereits weitgehend die Einstellungen der Stimulation bestimmen, bevor man überhaupt anschaltet, so dass man danach nur noch das fine tuning machen muss. Man will damit auch zu einem klaren Konzept der „Dosis“ einer DBS-Stimulation  kommen (denn letztlich wird damit ja Neurotransmitter freigesetzt). Helen Mayberg gab danach einen Überblick zu Ihrer Forschung über DBS bei Depression. In ihrem Fall zeigen sich bei Depression keine akuten advers events. Es dauert rund eine Woche nach Abschalten der Stimulation, bis die negativen Effekte wieder voll da sind – wichtig, um Batteriewechsel managen zu können. Unterstanden ist immer noch die Variabilität der Effekte. Derzeit kann man diese nicht auf die Variabilität der Elektrodenposition zurückführen. Ziel der DBS bei Depression ist nicht, die Depression wegzubringen, sondern den Patienten in eine Situation zu bringen, damit die klassische Therapie überhaupt wirken kann. Man muss die Patienten danach anleiten, ihr Gehirn wieder gebrauchen zu können. Deshalb gibt es keinen Antagonismus DBS-Psychotherapie – ersteres ist Voraussetzung für den Erfolg von letzterem, es braucht aber beides. Benjamin Greenberg schliesslich sprach zu DBS bei OCD – und auch anderen Verfahren (Gamma-knife). Generell hat man eine rsponse Rate von 50-60% (bei Fällen, bei denen alle anderen Verfahren nichts bringen) – offenbar sollen bald Resultate einer brasilianischen Gruppe mit sham Gamma knife (also randomisiert Therapie oder nicht) veröffentlicht werden, die klar zeigen, dass das Verfahren erfolgreich ist. Nach DBS gibt es Verbesserungen auf unterschiedlichen Zeitskalen: zuerst verschwindet anxiety, danach depression und die Zwangsstörungen erst am Schluss. Auch hier: DBS bietet die Basis, damit danach Verhaltenstherapie anschlägt, also auch hier kein Antagonismus. Side effects: Hypomaine, Disinhibition. Am Schluss noch eine kurze Debatte zum neuen DARPA-Programm zu DBS: offenbar ein 70 Mio. Programm. Allerdings wird eingewendet, dass die Entwicklung eines neuen DBS-Systems den Herstellern 100-150 Mio. kostet – so gesehen ist das Volumen eher klein.

 


07.-08. November 2013: Annual Meeting of the International Neuroethics Society

Am ersten Tag sprachen drei Vertreter von Personen, die Computerspiele zu Forschungszwecken untersuchen. Shawn Green sprach zu seiner Forschung über kognitive Verbesserungen nach dem Spielen von action video games. Zuerst eine kurze Ausführung zur (blödsinnigen) Debatte, ob nun Videospiele „gut“ oder „böse“ sind – eine Debatte, die schlicht zu einfach geführt wird. Seine Forschungen wurden 2003 in Nature zuerst publiziert. Man sieht langandauernde Effekte in motor-visual Skills wie auch executive skills nach dem Spielen von action video games. Interessanter Hinweis, dass die Videospiel-Erfahrung der beste Prediktor über die Qualität eines Endoskopie-Chirurgen ist. Die Frage ist nun, warum Videospiele derart gute Lerninstrumente sind: vermutlich, weil der reward (Dopaminsystem) in guten Spielen eben gegeben ist. Adam Gazzaley sprach zu seinem Nature Paper, das vor wenigen Wochen erschienen ist. Sein Ziel ist die Schaffung therapeutischer Videogames, die ein „cognitive enhancement“ ermöglichen sollen. Derzeit arbeiten Sie an einem Art „closed loop“: d.h. es sollen direkt Signale vom Gehirn (EEG) gemessen werden, die dann die Schwierigkeiten im Spiel dem Lernfortschritt anpassen. Feedback direkt ins Gehirn soll dann mittels TMS geschehen, um spezifisch so zu stimulieren, dass die Lernergebnisse besser werden. Schliesslich sprach auch der Game-Designer Jonathon Blow: Kernproblem vieler Lernspiele; sie sind überhaupt nicht fun. So funktionieren die Spiele nicht. Einige interessante Beobachtungen: Nutzung von Spielmechanismen in der Werbung. Beispielsweise Patent Nummer 8246454 von Sony: Nutzer soll bei Werbeunterbrechung durch McDonalds aufstehen und laut sagen: McDonalds – dann geht der Film weiter…

Die erste Session am nächsten Tag war zum Thema moral enhancement. Molly Crockett sprach zum gegenwärtigen Stand des Wissens (im Wesentliche dasselbe wie im Referat in New York vor einem Jahr): sowohl die Kandidaten Oxytocin als auch Serotonin wirken auf zu viele Systeme und bewirken deshalb je nach Kontext erwünschte oder unerwünschte Effekte. Es ist derzeit schwer vorstellbar, wie man dieses Problem in den Griff bringen will (man müsste die Kontexte stark kontrollieren). Patricia Churchland geht in die gleiche Richtung – insbesondere hinsichtlich der Oxytocin-Forschung: Das System ist immer noch kaum verstanden, es gibt Interaktions-Effekte, es gibt kaum brauchbare Studien in Menschen, Langzeiteffekte sind unklar. Zudem gibt es ein schwerwiegendes Messproblem: verglichen mit einem Referenzverfahren (funktioniert mittels radioaktiver Markierung, weiss Name nicht mehr) dürften die meisten heute verwendeten Tests deutlich (1-2 Grössenordnungen) zu hohe Werte angeben. Julian Savulesku schliesslich plädiert für seine These des „moral bioenhancement“ (verändern der Biologie zwecks Verbesserung des Verhaltens). Das gibt es schon, z.B. durch chemische Kastration oder Ritalin. Er wendet sich vorab gegen die Argumente von Harris, die sich grundsätzlich gegen moral enhancement aussprechen. Sein Punkt ist, dass diese Verfahren kaum je so wirken werden, dass menschlich Freiheit beeinträchtigt wird – de fakto werden nur Wahrscheinlichkeitsverteilungen beeinflusst. Die Frage ist aber: wie kommt man zur Entscheidung breitflächig zu intervenieren? Wer wird diese Entscheidung fällen?

Die nächste Session fand zum Thema „impairment of consciousness, brain-machine interfacing and end of life decisions“ statt. John Prichard weist darauf, hin, dass es viele Fehldiagnosen bei Bewusstseinsstörungen (z.B. zwischen vegetativem Zustand und minimal conscious state) geben würde – sicher 40%; fMRI ist vermutlich kein Verfahren, um hier die Diagnosegenauigkeit zu verbessern. Joe Fins spricht zu seinem bald erscheinenden Buch „Rights come to mind“ (sollte man kaufen). Lisa Claydon bringt Beispiele aus Grossbritannien, Niko Schiff Beispiele aus seiner Praxis. Letztlich alles ein Plädoyer, um bei end of life decisions in diesen Fällen vorsichtig zu sein.

Die letzte Session schliesslich fand zum Thema Kriminalität und Rehabilitation statt. Catherine Sebastian sprach zu ihren Forschungen über emotional processing bei Adoleszenz. Heute hat man eine recht gute Vorstellung, warum man in diesem Alter risikofreudiger ist. Bestimmte Personen haben eine genetische Disposition dafür, dass diese Effekte verstärkt auftreten, das führt z.B. dazu, dass die Amygdala über- oder unterempfindlich ist, um Angst bei anderen zu erkennen – mit entsprechend negativen Verhaltenseffekten. Strafe haben bei diesen Personen keinen Effekt – sie haben eine Art „Lernprogramm“ entwickelt, (Let’s get smart), um Verhaltensauffälligkeiten bei diesen Personen zu verbessern. David Jentsch spricht zu seinen Forschungen, die Impulskontrolle zu verbessern. Das Problem bei manchen Kriminellen ist, dass ihr Verhalten durchaus gewollt und motivationsgetrieben ist – es geht um die Kontrolle der Motivation, nicht direkt des Verhaltens. Hinweis auf Forshcung bestimmter Dopamin-Rezeptoren im präfrontalen Kortex: es gibt genetische Variabilitöt, die sich nichtlinear auswirkt (nur ein wenig weniger Rezeptoren hat ab einem bestimmten Schwellenwert gravierende Effekte). Man kann medikamentös die Wirkung dieser wenigen Rezeptoren verbessern, was entscheidend für eine Rehabilitation sein kann. Schliesslich sprach der Richter, Robert Trentacosta, über seine Erfahrungen: Das Gerichtssystem lernt langsam – erst in jüngster Zeit hat man neue Verfahren eingerichtet, die nicht allein nur auf Strafe absetzen – insbesondere bei Jugendlichen sind die Erfolge frappant. Ihr Problem sind die übervollen Gefängnisse nach „three strikes“ – sie haben schlicht kein Geld mehr dafür. Die Gefahr ist nun, dass auch die neuen Programme wieder gestrichen werden könnten.


24.-26. Oktober 2013: Annual Meeting of the Association for Moral Education

Bin im Verlauf des ersten Tags angekommen, so dass ich keine Vorträge besucht habe. Erste Session des zweiten Tags war zu „Parental Roles in Moral Development“. Kaye Crook untersucht eine alte These neu, wonach peer attachment für die Ausbildung von Moralität zentral ist (so z.B. Kohlberg und Diessner 1991: sie sahen parental attachment als zentral an). Die Datenlage ist hierzu aber widersprüchlich, was unter anderem auch methodische Gründe hat (z.B.: misst man „Moralität“ als kontinuierliche oder kategoriale Variable?). Sie untersuchte religiöse vs. säkulare College-Studenten (bzw. entsprechende Colleges), Messvariablen: moral self, attachment to parents. Zwei Hypothesen: morality predicts attachment, attachment predicts morality (und die Funktion der Religiosität als Mittler). Ihre Daten bestätigen nun wieder eher Kohlberg: Bedeutung der (mütterlichen) Attachment (nicht aber des väterlichen). Alles in allem erscheint die Sachlage immer noch komplex. Darcia Narvaez spricht dann zu ihren Resultaten hinsichtlich des Zusammenhangs zwischen eigenem Parenting-Erleben (de fakto: der Erinnerung daran) und der moral identity gemäss Triune Ethics. Sie findet Bestätigung für ihre Hypothese, wonach ein Parenting, das schlechter an die evolved developmental niche angepasst ist (also z.B. weniger Touch, weniger Breastfeeding) verstärkt mit einer Safety Ethics korreliert. Jenny Vaydich spricht dann zum Zusammenhang zwischen parent-adolescent communication und emotional reactivity on aggressive behavior. Sie unterscheidet zwischen reaktiver und proaktiver Aggression – erstere wird eher als emotionale Reaktion verstanden, letztere eher als emotionslose, strategische Aggression. Sie verwendet dioe emotional reactivity scale von Nock et al. 2007 und die reactive/proactive  scale (aggression) von Racine et al. 2006 (nachprüfen, könnte interessant sein für uns). Auch sie findet Hinweise, dass die mütterliche, nicht aber die väterliche Kommunikation ein Einflussfaktor ist.

Die Kohlberg Lecture gibt dann Tariq Modood zum Thema Multikulturalismus, Interkulturalismus und die Mehrheit. Etwas viel Begriffsklauberei hinsichtlich der ersten beiden Begriffe („boundary work“). Vergleich Europa und Quebec – europäische Positionen orientieren sich oft an einer Form von cosmopolitanism (Vielfalt unter dem Regime von Freiheit, Gleichheit, Brüderlichkeit), Bouchard und Taylor in Quebec orientieren sich eher an einer Integration in eine Kultur der Mehrheit. Modood diskutiert dann den Unterschied zwischen Diversität und Dualität in der Debatte. Erstere geht davon aus, dass es keine Mehrheitskultur gibt sondern nur Minderheitskulturen, die alle a priori gleichgestellt sind. Dualität geht von einer „wir-sie“ Dichotomie aus (wobei an sich das „sie“ durchaus divers sein kann, oder?). Nach meinem Geschmack zu viel Spiel mit den Begriffen. Der Unterschied zwischen den beiden Positionen sollte man so konzeptualisieren, dass man das Klassifikationsproblem und die Auflösung der Klassifikation verschieden lösen kann. Ein interessanter Punkt: Viele Multikulturalisten übersehen, dass es so etwas wie eine „Mehrheit“ durchaus gibt, Nationen haben Geschichten, die diese Mehrheit bilden (wenn auch unscharf). Man kann zwar diese historische Konstruktion durchaus angreifen, dennoch muss man anerkennen, dass die Identität der Mehrheit ebenso einen Schutzwert hat wie die Identität der Minderheit. Er bleibt aber auf einer allgemeinen Ebene, in der die Konflikte alle lösbar erscheinen.

Danach folgt die Session zu moral responsibility. Thomas Kristopher spricht zur Diskussion um Alkoholabhängigkeit, die man immer mehr nur als Krankheit versteht (wie generell alle Süchte  heute als behandelbare Hirnkrankheiten verstanden werden). Dieses biologische disease model hat folgende Eigenschaften: Man glaubt, es gebe eine unitary disease entity (muss man das wirklich glauben?), der Zustand ist binär (man ist süchtig oder nicht), die Basis ist biologisch, Kernproblem ist fehlende Kontrolle des Konsumverhaltens. Die Frage ist nun, ob das eher Stigma reduziert oder erhöht (beides ist denkbar). Natürlich wird diese Biologisierung auch angegriffen (u.a. Thomas Szasz): unterminiert Verantwortung, vernachlässigt die Möglichkeit der self-regulation, hat negative soziale Implikationen. Studien zeigen auch, dass das biologische Suchtmodell beim Alkohol so klar nicht ist: grosse epidemiologische Studie der NIAAA mit mehreren 10‘000 Personen: rund 30% ist alkoholsüchtig in den 20ern, rund 40% in den 30ern, und nur 30% entsprechen dem klassischen Bild des Alkoholikers – bei den ersten beiden Gruppen wird kaum behandelt und die Sucht hört nach 3-4 Jahren auf, was auf Bedeutung der sozialen Faktoren hinweist. In DMS5 wird aber der Unterschied von DMS4 (abuse versus dependence) nicht mehr aufrechterhalten, man spricht nur noch von alcohol addiciton. In einer geplanten Studie wollen sie die Effekte dieser Veränderung genauer untersuchen. Jennifer Loew spricht zu Ihrer Dissertation zum Begriff von moral responsibility – sehr allgemein (Unterschied zwischen dem philosophischen und psychologischen Verantwortungsbegriff). Ihre empirische Studie beruht nur auf 19 Personen. Interessant ist die Unterscheidung zwischen enger und weiter Verantwortung (im Sinn: für was alles sieht man sich verantwortlich): je weiter der Begriff, desto höher die Wahrscheinlichkeit, dass man versagt. Fritz Oser und Catherine Naepflin sprechen dann zu moralischer Verantwortung und Scheitern (als Unternehmer), basierend auf der Beobachtung, dass Scheitern bei Startup-Kursen kaum thematisiert wird (und das sei unverantwortlich). Irgendetwas stimmt nicht mit den Zahlen, die sie präsentieren: Es sollen jeweils nur 15% eines Jahrgangs scheitern, das gibt viel zu hohe Zuwachsraten der Zahl der Unternehmen. Sie wollen einen „sense of failure“ entwickeln, also die Fähigkeit zu erkennen, dass ein eigenes Unternehmen in Gefahr ist, zu scheitern (um dann darauf reagieren zu können).

Am nächsten Tag folgt dann die Session mit dem eigenen Vortrag (Moral decision making and the brain). Miriam Beauchamp spricht zu ihren Studien über moral reasoning in adolescents mit Fokus auf asozialem Verhalten, Delinquenz und social functioning. Sie interessiert sich für den Zusammenhang zwischen kognitiven und affektiven Faktoren. Hinweis auf methodische Schwierigkeiten gängiger Verfahren: z.B. muss man vergleichsweise komplexe Texte (Dilemma-Beschreibungen) lesen und verstehen können – das kann man in ihrer Zielgruppe nicht voraussetzen. Sie hat deshalb 16-19 Dilemmas in Form von Bildergeschichten präpariert und dabei alltägliche Dilemmas verwendet (ich würde das allerdings nicht moralische Dilemmas nennen, denn es geht nicht um den Konflikt moralischer Werte, sondern um den Konflikt zwischen moralischem und egoistischem Verhalten). Hyemin Han hat dann das Paradigma von Greene in einer Vergleichsstudie von US-Amerikanern und Koreanern untersucht – man findet recht komplexe Unterschiede (Interpretation unklar).

Nach der Session sprach Nancy Eisenberg zu ihrer Forschung zu Sympathy. Sie macht einen klaren (und richtigen) Unterschied zwischen Empathy und Sympathy – dies (biografisch gesehen) als Reaktion auf eine Metaanalyse von 1982, wonach es keinen Zusammenhang zwischen Empathie und prosozialem Verhalten geben würde (weil man dort diese Unterscheidung nicht gemacht hat). Sie versteht Empathie als „fühlen, was der andere fühlt“, während Sympathie eine emotionale Reaktion des „concern for the other“ mit einschliesst. Denn Empathie kann auch zu personal distress führen, d.h. zu einem Verhalten um zu verhindern, damit man fühlt, was der andere fühlt (weil dies eben distress auslöst). Danach folgt eine umfangreiche Übersicht zu ihrer Arbeit. Wie sie sympathy misst: self-reports, facial expressions, physiological reactions (e.g. heart rate) – letzteres erlaubt es, sympathy von personal distress zu unterscheiden (die heart rate geht runter bei ersterem, rauf bei letzterem). Sie finden in ihren Forschungen dann einen klaren Zusammenhang zwischen Sympathy und prosocial behavior, während personal distress zu einer Verminderung von prosozialem Verhalten führt. In einer longitudinalen Studie erwies sich spontaneous sharing als bester Prediktor für späteres prosoziales Verhalten. Sie findet auch einen positiven Zusammenhang zwischen sympathy und moral reasoning, aber keinen Zusammenhang zwischen cognitive perspective taking in prosocial behavior. Tina Malti hat dann eine Replik gegeben. Sie ergänzt, dass nebst sympathy auch guilt als zentrale Emotion angesehen werden sollte, um moralisches Verhalten zu verstehen. In ihren neueren Arbeiten interessiert sie sich zudem zunehmend für Respekt als moral emotion (warum moral emotion?).

Danach noch die Session zu „morality in tragedy and crisis“. Dawn Schrader sprach zu surveillance, vor allem Begriffsklärungen. Verschiedene Komponenten von Privacy: das recht, allein zu sein; das Recht auf Geheimnisse; Kontrolle über die einem selbst betreffenden Informationen; Persönlichkeitsschutz; Intimität. Rechtliche Regelungen zu Privacy betreffen verschiedene Aspekte: Information, Körper, Schutz vor Kommerzialisierung, Territoriale Privacy. Danach präsentieren sie Resultate von Experimenten (es scheint mir, dass sie vergleichbare Resultate bereits bei AME 2012 vorgestellt haben). Experimentelles Setting: man prüft, was Leute bereit sind zu zahlen, um Informationen von anderen zu erhalten (bzw. was sie erhalten wollen, um eigene Information freizugeben). Matt Ferkany spricht zu intellectual arrogance und humility im Kontext von Klimawandel. Er versteht intellectual humility als Einsicht in die eigenen Fehler und Limitierungen und basierend darauf eine ausgewogene Vertretung des eigenen Standpunkts. Die Ausführungen selbst waren dann weniger interessant. Aslaug Kristiansen schliesslich brachte eine Art persönlichen Erfahrungsbericht des Terroranschlags von Breidik in Norwegen im Jahr 2011.


16. September 2013: Workshop on “Ubiquitous games and gamification for promoting behavior change and wellbeing”, Trento

Der Workshop versammelt Beiträge zur Frage, wie man mittels Computerspielen und dergleichen Instrumente zur Förderung von Gesundheit (und ähnliches) generieren kann. Hier ist der Link zu den Proceedings.

David Tacconi macht den Keynote-Vortrag: Er ist Gründer des Unternehmens CoRehab, das ein Instrument zur Förderung der Rehabilitation nach orthopädischen Operationen entwickelt hat. Grundidee ist, dass das verletzte und zu trainierende Glied eine Spielfigur steuert, mit der der Patient Spiele bestreitet. Die Steuerung kann vom Orthopäden vorgängig genau definiert werden (z.B. welche Muskeln, welcher Bewegungswinkel), Bewegungssensoren melden dann die Position der Gliedmasse und sorgen so für die Steuerung. Damit soll insbesondere die Rehabilitation in den Phasen 2 (nach Entlassung aus Spital, vor Abschluss Physiotherapie) und 3 (nach Abschluss Physiotherapie bis zur völligen Gesundung) unterstützt werden, in der bekanntlich Motivationsprobleme bestehen. Zudem ist das Training in diesen Phasen auch für den Orthopäden/Physiotherapeuten repetitiv und langweilig, d.h. dieser gewinnt Zeit. Das System existiert in einer Praxisversion und einer Heimversion. Der Patient konzentriert sich auf das Spiel und nicht mehr auf die repetitive Bewegung (das wird indirekt kontrolliert, denn wenn man sich falsch bewegt, macht die Spielfigur die falschen Züge im Spiel). Herausforderungen für das Unternehmen: Technische Präzision (Kalibrierung und dergleichen, ist gelöst worden); Therapeuten überzeugen, dass das System sie nicht konkurriert, sondern unterstützt. Patienten wünschen Feedback über Performance und Kontrolle (ist gegeben, denn der Arzt erhält immer ein Feedback darüber, wie gut der Patient „gespielt“ hat, und er kann entsprechend intervenieren). Interessant: Private Spitäler sind skeptischer, denn man will nicht, dass die Patienten sich zu rasch rehabilitieren (man verliert einen Kunden). Die Art der Organisation der Bezahlung dürfte ein wichtiger praktischer Aspekt sein (wohl je nach Gesundheitssystem unterschiedlich).

Rosa Maimone präsentiert das iFit-Projekt, das eine gewisse Ähnlichkeit hat zu FitBit. Ziel ist das Induzieren von Verhaltensveränderungen, z.B. bezüglich Energieverbrauch. Interessante Visualisierung der Gruppe durch Singvögel, so dass man gewissermassen das Verhalten des Kollektivs sieht. Der Game-Aspekt ist aber noch recht unklar (man ratet, wer welches Profil hat? Warum sollte man das tun wollen? Monica Tentori präsentiert „Froggy Bobby“ – ein Spiel zum Bewegungstraining für Kinder mit der Development Coordination Disorder (DCD). Grundidee ist „skill generalization“ – aber das Spiel scheint das derzeit meines Erachtens noch nicht zu leisten. Yongqiang Qin entwickelt ein Messinstrument, das basierend auf einer Stressantwort (gemessen via Pulsrate und PPG (Oxymeter, Sauerstoffsättigung?)) ein Mass für „Mental Effort“ entwickeln. Interessantes Instrument; fraglich ist aber, inwieweit dieser stress induced vascular response index tatsächlich mental effort misst, zumal ja auch andere Aspekte Stress auslösen können (z.B. Art des Stimulus). Am Schluss dann mein Vortrag.

Am Nachmittag sprach dann Silvia Gabrielli zum Thema „Designing Meaningful Games“ (vorab im Kontext Hirnschlag-Rehabilitation, PD und dergleichen). Sie nennt bekannte Anforderungen: Spiel muss einfach zu bedienen sein, Bezug zu täglichen Aktivitäten haben, personalisierbar sein, Rückmeldung zu Fortschritten geben, korrekte Ausübung der zu trainierenden Bewegung sicherstellen und soll den Therapeuten nicht ersetzen. Zwei Beispiele: Interessante Hardware („Game Cubes“: Sifteo), und ein Spiel namens „Eco Dealers“, das zu Nachhaltigkeit erziehen soll (Spielermotivation erscheint mir fraglich, mir nicht einleuchtend, warum man das spielen soll). Nadia Bianchi-Berthouze stellt ihre Forschungen zur Rehabilitation bei chronischem Schmerz vor – Ziel des Spiel ist es, „falschen Schmerz“ (der zu Abwehrreaktionen führt, die den Schmerz unterstützen) dem Spieler bewusst zu machen. Michele Bianchi stellt Grundzüge eines PhD-Projektes vor: wie bringt man Leute dazu, Fitness-Aktivitäten langfristig zu verfolgen. Eine Idee: nicht nur auf Wettbewerb zwischen den Teilnehmern abzielen. Charles Callaway stellt ein Projekt für Museen vor: so was wie gerichtete Führungen bzw. Personen erhalten eine „dramatic audio presentation“, wenn sie gleichzeitig vor einem Kunstwerk sind. Ziel ist es, das Gespräch zwischen den Personen zu fördern. Das Projekt erscheint etwas seltsam. José Luis Silva schliesslich präsentiert ein Spiel, das Kinder mit Asthma auf mögliche Asthma-Triger aufmerksam machen soll. Die gewählte Game-Umgebung hat aber die Spieler in einem Pretest dazu verleitet, anderes zu machen… Vielleicht ist das Setting bzw. Die Aufgabe zu uninteressant…


21. August 2013: Kolloquium des Ethik-Zentrums

Rabbi Akive Tatz spricht über jüdische Bioethik am Beispiel coersion and consent. Es gibt einige sehr interessante Gesetze in Israel, die sich auf jüdische ethische Traditionen zurückführen lassen. So ist es beispielsweise einem Arzt erlaubt, eine Therapie gegen den Willen eines einwilligungsfähigen Patienten durchzuführen, d.h. höherer Grad an Paternalismus (Gesetz von 1996). Grund dafür ist eine tiefere Gewichtung des (westlich geprägten) Autonomieanspruchs und insbesondere, dass man kein völliges Verfügungsrecht über den eigenen Körper hat. Dieser ist gewissermassen eine Leihgabe und es bestehen Verpflichtungen, diese Leihgabe gut zu behandeln, was zuweilen ein Handeln gegen den Willen der Person rechtfertigen kann. Bedingungen für die Anwendung dieses Grundsatzes sind: a) die Therapie ist lebensrettend; b) es gibt keine Alternative, c) man kann vernünftigerweise davon ausgehen, dass der Patient nach der Durchführung der Behandlung später dafür dankbar sein wird. Eine andere Besonderheit (religiöser) Gerichte. Man darf nicht gegen sich selbst aussagen, also z.B. ein Geständnis darf von einem Gericht nicht akzeptiert werden, wenn es um strafrechtliche Belange geht (die eine Bestrafung zur Folge haben können, die den Körper betrifft). Mehr dazu in seinem Buch: Dangerous Disease & Dangerous Therapy (Targum Press, 2010). Noch eine Bemerkung: Israel kennt offenbar eine staatlich verwaltete Patientenverfügungs-Datenbank, es sollen gegen 30% der Bevölkerung dort ihren Willen angelegt haben (der Wille darf nicht älter als 5 Jahre sein, um gültig zu sein; kommt es zu einer schweren Erkrankung, muss der Wille angepasst werden).


31. Juli – 4. August 2013: APA Convention

APA ist ein Grossanlass mit mehr als 10‘000 Teilnehmern; ich habe nur ausgewählte Sessions besucht. Am ersten Tag (31.07.) fanden die Präsentationen meiner beiden Poster statt. Die Poster-Sessions sind zu kurz (50 Minuten), man sollte schon zwei Stunden pro Poster haben. Die interessantesten Sessions überschnitten sich leider mit den Poster-Präsentationen, so dass ich nur wenige Vorträge besuchte. In der Session zu animal cognition sprach David A. Washburn zum Einsatz des Stroop Effekts in der Forschung (wird nun auch bei Tieren eingesetzt). Bibliometrie zeigt, dass das Interesse an diesem Test vorab in den letzten 10 Jahren stark gestiegen ist (es fehlte allerdings die Skalierung mit dem Gesamtwachstum der Paper). Bei Tieren macht man einen Stroop-Effekt mit Zahlensymbolen und der Anzahl dieser Symbole: Man trainiert die Tiere sowohl darauf, Zahlensymbole mit „mehr“ und „weniger“ zu assoziieren. Der Stroop-Effekt ergibt sich dann dadurch, indem man z.B. viele „1“ mit wenigen „8“ zeigt und das Tier – wie auch der Mensch, da funktioniert es auch – muss sich dennoch für jene Option entscheiden, die für „mehr“ steht. Man findet dann die typischen Verzögerungen in den Reaktionszeiten. Beim Tier-Mensch-Vergleich zeigt sich, dass Affen längere Reaktionszeiten haben und diese vergleichbar sind mit Menschen mit tiefem IQ.

Am 1.8. besuchte ich den Vortrag von „Psychologie-Superstar“ Philip Zimbardo. Er erzählt einen Gesamtüberblick seiner Forschung (Einbettung des Stanford Prison Experiments) und zu seinem neuen „Hero“-Projekt: wie „trainiert“ man Menschen, so dass sie sich im Alltag wie Helden verhalten, wenn die entsprechende Situation kommt (ein klarer „Helden-Begriff“ scheint er nicht zu haben – irgendwie gehören alle „guten Taten“ dazu). Seine frühere Forschung kreiste vorab um das „Böse“, wobei er drei Komponenten von „evil“ sieht: die individualistische, die situationale und die systemische. Beispiel eines systemischen „evil“ ist Armut, das sich dann auch die beiden anderen Komponenten auswirkt: Viele Ghettos sehen aus wie Gefängnisse (z.B. praktisch keine Pflanzen) und Leben in Armut hat Auswirkungen auf das Epigenom (individuelle Ebene). Unter dem „Bösen“ sieht er im Wesentlichen den Mussbrauch von Macht, wobei sich Missbrauch ausdrückt, indem man anderen schadet, sie verletzt, Dinge zerstört, Verbrechen verübt etc. Mechanismen des Bösen sind wohlbekannt: Dehumanisierung des anderen, Verwischung von Verantwortlichkeiten, blinder Gehorsam, systemische Ungerechtigkeit, Gruppendruck etc. Sein Blick auf die Probleme von heute wirkt manchmal zu einfach. Er spricht von systemischen Übeln, bleibt aber dennoch auf der Ebene der (z.B.) Manager-Bashings stecken. Die Differenzierung in diese drei Ebenen ist nicht ausreichend, man muss vorab deren Zusammenwirken untersuchen. Er sprach dann lange zu den Milgram-Experimenten. Was ihn erstaunte: nur eine einzige Person soll sich geweigert haben, bereits die erste Bestrafung durchzuführen. Sobald die Leute einmal bestraft haben, gehen sie oft bis ans Ende (weiss man eigentlich, wie viele Leute sich geweigert haben, am Experiment teilzunehmen, nachdem ihnen dieses beschrieben wurde?). Hinweis auf eine situationale Komponente: Sahen die Versuchspersonen vor ihrem Einsatz, wie sich eine (vermeintliche) Versuchsperson weigerte, ab einer bestimmten Voltstärke die Bestrafung durchzuführen, so taten sie das selbst dann auch deutlich öfters. Danach sprach er von seinem eigenen Experiment und zur Analogie zu Abu Ghraib (ausgeführt in seinem Buch Luzifer-Effekt). Die Demütigungen etc. passierten jeweils nur in der Nachtschicht, als es keine Kontrolle durch obere Instanzen gab – ein klarer Hinweis auf systemisches Übel (kein Vorgesetzter wurde belangt). Schliesslich spricht er zu seinem Hero-Projekt. Heldentum zeichnet sich gemäss ihm durch drei Aspekte aus: a) man handelt, um Gutes zu tun (und erreicht es meist auch); b) man nimmt dafür Risiken in Kauf; c) man zeigt Bescheidenheit hinsichtlich der eigenen Tat (man brüstet sich nicht damit, man sieht das Handeln als „normal“ an). Gemäss seinen provisorischen Resultaten seien Schwarze und Hispanos öfters „Helden“ (auch wenn man die Wahrscheinlichkeit herausrechnet, dass sich diese von den Lebensumständen her eher in Situationen befinden, in denen heldenhaftes Handeln überhaupt getan werden kann). Seit fünf Jahren läuft nun das Heroic Imagination Projekt, ein Trainingsprogramm mit drei Zielen: a) aufzeigen, welche Hindernisse man überwinden muss, um ein Held zu sein (Sensibilisierung für Situationen, die heldenhaftes Handeln verlangen); b) Demystifizierung des Heldentums (man braucht keine übermenschlichen Fähigkeiten); c) Heldentum ist nicht nur eine Angelegenheit des Einzelnen, auch Gruppen können Helden sein.

Am 2.8. besuchte ich eine Session und einen Vortrag (und die Poster-Session von Darcia – dazu keine Notizen). In der Session 3085 ging es um die Messung der psychologischen Performance von Soldaten. Im ersten Vortrag sprach Heather Mullins (?). In einer Längsstudie hat man untersucht, welche Faktoren voraussagen, wie sich Soldaten bewähren und welche Offizierskarriere machen. Es geht hierbei um Leistung, Verhalten und Ansichten (attitudes), d.h. man strebt ein möglichst vollständiges Persönlichkeitsprofil an. Mit einem Messinstrument namens TAPAS erfasst man 21 Persönlichkeitsdimensionen. Unter anderem brauchen sie eine ähnliche Methode wie wir. zwei zufällig gezogene Statements werden einander gegenüber gestellt und man muss sich entscheiden, welches davon besser zu einem passt (binäres Auswahlparadigma) – die Paare werden offenbar pfadabhängig erzeugt (als abhängig von den jeweiligen Antworten vorher). Es ist allerdings unklar, wie man zu der pass/fail-Unterscheidung bei TAPAS kommt. Im zweiten Vortrag von Stephen Zaccaro geht es um den long-term Outcome von Offizieren. Die USA haben ja eine Freiwilligen-Armee, d.h. man will möglichst in die optimalen Leute investieren, damit diese bleiben und gute Offiziere werden. Die Studie umfasst den Zeitraum 1993 bis 2008, 690 Offiziere (71% davon haben im Verlauf dieser 15 Jahre die Armee verlassen). Faktoren, die ein bleiben begünstigen, waren: männliches Geschlecht, verheiratet, Fähigkeit zur komplexen Problemlösung, Kreativität, Flexibilität, Verantwortungsbewusstsein (ist generell kongruent mit den sonstigen Ergebnissen der Führungsforschung in anderen Bereichen). Vor allem die letzten beiden Faktoren scheinen die wichtigsten zu sein. Ihre Hypothese: diese Faktoren begünstigen es, dass man im Verlauf seiner Laufbahn mit Situationen konfrontiert wird (z.B. bestimmten Kampfeinsätzen), die ihrerseits die Beförderung (und damit das Bleiben in der Armee) begünstigen. Im Vortrag sprach dann Linda Chang über die Auswirkungen von pränatalem Drogenkonsum auf das Kind. Sie macht ihre Forschungen auf Hawaii, weil es offenbar hier viele Meth-Konsumenten gibt. Verbreitet ist aber auch Marihuana. Zudem sollen 70-80% aller Schwangeren Medikamente während der Schwangerschaft konsumieren. Ein Review zur ganzen Thematik: Thompson et al, Nat Rev Neurosci 2009. Forschung zeigt generell vorab bei Alkohol und Nikotin Einflüsse auf die Embryonalgenese (und Auswirkungen auf die spätere Entwicklung des Kindes). Tierversuche weisen auf Geschlechtsunterschiede hin. Mechanismus ist teilweise epigenetisch. Zu beachte sind auch indirekte Effekte des Drogenkonsums, z.B. schlechtere Ernährung der Mütter. Sie selbst macht structural imaging mit Säuglingen (was offengar gut geht wenn unter 3 Monaten). Die Unterscheidung zwischen legalen und illegalen Drogen macht praktisch oft keinen Sinn, denn Schwangere die illegale Drogen nehmen, konsumieren oft auch Alkohol und Tabak – also kumulative Effekte.

Am 3.8. besuchte ich keine Veranstaltung, am 4.8. dann die Veranstaltung zu video games und Verhalten. Ferguson präsentierte die Ergebnisse seiner Meta-Untersuchungen. Der Zusammenhang zwischen Videospielen und Aggressivität ist weit kontroverser und unklarer als behauptet wird, das Gebiet selbst ist bereits recht ideologisiert – insbesondere, seitdem Videospiele als Erklärungen für Schulmassaker herangezogen werden (Verneiner eines Zusammenhangs zwischen Videospielen und Gewalt werden als „Industrievertreter“ diffamiert). Die Studienlage ist aber inkonsistent und die Begriffe oft nicht klar definiert (was ist ein „violent video game“, was ist „aggression“?) Metastudien machen oft einfach einen Durchschnitt zwischen Studien, die Effekte zeigen und solchen, die das nicht tun – korrekter wäre eine Beschreibung als kontroverses Gebiet. Zudem haben bivariante Korrelationen keine grosse Erklärungskraft. Auch aggregierte Daten stützen die These insbesondere hinsichtlich realer Gewalt ab. So nimmt die Jugendgewalt in den USA generell ab, während der Verkauf der Spiele zunimmt. Andere Länder mit hohen Verkaufszahlen zeigend deutlich tiefere Gewaltraten. Ferguson findet auch Hinweise auf einen Publication Bias (d.h. Negativresultate werden nicht publiziert). In einer neueren Meta-Analyse von ihm untersucht er Zusammenhänge unter Einbezug anderer, bekannter Faktoren, die mit Aggressivität korrelieren. Macht man das, nehmen die (sonst schon eher kleinen) Effektgrössen dramatisch ab. Whitney Gunter präsentiert eine konkrete Studie, in der der Zusammenhang zwischen Aggression und Videospielen untersucht wurde. Unter Nutzung von prospensity score matching (?) zeigt er: berücksichtigt man bekannte Faktoren, die Aggressivität fördern beid er Auswertung, nehmen fast alle Effekte dramatisch ab und werden meistens nichtsignifikant (insbesondere bei Männern). Walter Boot untersucht kritisch, inwieweit die positiven Effekte von action games (z.B. Erhöhung der Aufmerksamkeit) tatsächlich zutreffen: bei diesen Studien zeigen sich vergleichbare Schwächen wie bei jenen, die einen Zusammenhang zwischen Aggressivität und Videospielen behaupten (z.B. auch einen recruiting bias, wenn immer die Studien aufzeigen, wie sie ihre Teilnehmer rekrutieren). Alexander Przybyliki schliesslich untersucht die These der „Spielsucht“. Sein generelles Thema; wie autonom macht uns die Nutzung elektronischer Medien. Er entwickelte einen index of autonomous functioning und auch Techniken, wie man Autonomie primen kann (interessant, seine Studien genauer anschauen). Personen mit hohen Autonomie-Score fühlen sich in der Tat weniger unter Druck beim Spielen und können leichter aufhören, leute mit tiefen Scores machen „ungesundere“ Spielerfahrungen.


15.-17. Juli 2013: International Association for Philosophy and Computing Conference

Die erste Session vom Montag dauert von 9 bis 10.30 Uhr. Daniel Hromada sprach in der ersten Sesssion zu BitCoins und anderen Formen virtueller Währung in der „cryptosphere“. Er sieht hier eine neue Form einer Währung aufkommen mit dem Potential, eine „neue Wirtschaft“ zu ermöglichen; eine „orthogonal economy“, die anders sei als die herkömmliche – warum genau das so sein soll, wird aber nicht klar, zumal auch mit dieser neuen Form von Währung herkömmliche wirtschaftliche Transaktionen getätigt werden. Auch die Tatsache, dass man sich 12 Worte merken muss, um gewissermassen Zugriff auf sein Geld zu haben, erscheint nicht prinzipiell anders als ein sonstiger Zugriff auf ein elektronisches Konto (mal abgesehen davon, dass man sein Geld offenbar verliert, wenn man diese Worte vergisst…). Interessant erscheinen zwei Dinge: Die Art der Emittierung der Währung funktioniert anders (es wurde aus dem Vortrag nicht klar, wie genau das geschieht), und man kann jeden BitCoin auf seinen Ursprung rückverfolgen. Letzteres würde es in einem neuen Sinn erlauben, Geldmengenausweitungen zu untersuchen (könnte man jede Geldeinheit „tracken“?). Hromada sieht auch ein Problem im totalen anonymen Gebrauch des Geldes, d.h. man muss beim Exchange von BitCoins seine Identität nicht preis geben – doch entsprechende Probleme bestehen ja auch beim „normalen Geld“. Man kann nie sicher sein, wer bei einer online-Transaktion sein Gegenüber ist, Täuschungspotential ist auch hier gegeben. Frances Grodzinsky sprach über Täuschung (deception) und Vertrauen bei autonomen Softwareagenten. Vortäuschen geschieht heute aber noch auf einem eher primitiven Level (interessant: Bei E-Shopping soll es Software geben, die nichtexistierende Angebote beim Auswahlprozess generiert, um somit den Käuferentscheid zu beeinflussen). Ich sehe noch nicht das Argument, warum es die Maschine sein soll, die täuscht (dazu braucht es ja Absichten, und solche Absichten kann man Maschinen bzw. Softwareagenten nicht unterstellen. Gemäss Grodzinsky gibt es klare Fälle, bei denen vortäuschen falsch ist und auch einige wenige Fälle, bei denen Vortäuschen gerechtfertigt erscheint. Für die „Grauzone“ empfiehlt er, dass man a priori davon ausgehen soll, dass Vortäuschen von etwas falsch ist und der Softwaredesigner rechtfertigen muss, warum er das braucht. Mark Waser spricht schliesslich zur Frage der Verantwortung, die sich bei Funktionen von technischen Systemen (ICT/Software) stellt, wenn diese zu unerwünschten Folgen führen – insbesondere zur Diskussion um Tötungsroboter. Er hält diese Diskussion für fehlgeleitet, da sie quasi den Robotern die Verantwortung zuschreiben würde. Solange die Systeme keine Fähigkeit zur Selbstreflektion und Selbstmodifikation haben und sich keine eigenen Ziele setzen können, sei es unsinnig, davon zu sprechen, diese Systeme seien für irgendwas verantwortlich. Ich denke aber, dass einige der heutigen Systeme durchaus das Potential haben, „to obscure accountability“.

Bertrand F. Malle hatte den ersten Keynote Vortrag. Eine interessante Fragestellung: was braucht es, um einen „moral robot“ zu bauen – insbesondere mit Blick darauf, welche menschlichen Aspekte von moralischem Verhalten man nicht in einem Roboter haben will, so dass dieser bessere Entscheide generiert Sein claim ist, dass es eine Form von moralischen Robotern brauchen wird, sobald diese Systeme routinemässig mit Menschen in einem sozialen Kontakt stehen werden, z.B. in Pflege und Medizin, Erziehung, Rettung, Militär. Er sieht vier Komponenten, die man besser verstehen muss: Erstens, den „moral core“ – das System muss also über moralische Begriffe verfügen und ein Netzwerk moralischer Normen haben, anhand derer sich Handlungen beurteilen lassen. Hier arbeitet er mit Forschern der Indiana University zusammen – hochinteressantes „Big Data“ Projekt im Bereich Moral (Sammlung einer grossen Zahl von Sätzen, die moralisch falsche Handlungen ausdrücken sollen). Er gliedert das Vokabular in drei Bereiche: a) Begriffe, die moralisch Wünschbares bzw. falsches bezeichnen (sowohl den Agenten betreffend als auch die Normen selbst); b) Begriffe über Normverletzungen (sowohl die Handlung betreffend als auch solche zur Charakterisierung des Normverletzers); c) Begriffe als Antwort zu Normverletzungen (sowohl solche, die die anderen verwenden als auch solche, die der Normverletzer z.B. zur Rechtfertigung verwendet). Man könnte sich hier fragen, ob nicht auch Begriffe für Normunterstützung (also Vorbilder-Beschreibungen etc.) eine eigene Klasse bilden sollten. Probleme für Roboter dürften insbesondere sein, die jeweiligen Kontexte zu erkennen, unter denen diese Begriffe verwendet werden. Dann verweist er auf seine Forschung, in denen er zwischen goals und values unterscheidet (offenbar findet er eine klare Unterscheidung hier; prüfe ein Paper von ihm aus dem Jahr 2004 mit dem Titel „What are values?“). Werte würden auf die Gemeinschaft zielen, Ziele seien individueller Art. Es wird nicht ganz klar, warum er diese Unterscheidung für ein Projekt braucht.

Dann muss das System moralische Handlungen machen können – also Aktionen, die mit bestimmten Normen übereinstimmen. Er sieht dies als etwas recht diffuses an, er denkt, dass auch Konventionen (etiquette) hier eine wichtige Rolle spielen. Auch muss man intentionales Handeln wir auch unbewusste Aspekte des Verhaltens miteinbeziehen. Er kritisiert auch, dass in vielen Studien man das Abgeben von Urteilen mit eigentlichen Handlungen verwechselt. Auch müssten viele intrapsychische Prozesse mitberücksichtigt werden (moral habits, self-regulation etc.).

Drittens muss das System in einem gewissen Grad über moralische Kognition und Emotion verfügen. Diese spielen insbesondere eine Rolle beim Setzen und Evaluieren von Normen für Handlungsrechtfertigungen, für die Evaluierung von Ereignissen in moralischer Hinsicht und die Evaluierung anderer Agenten. Hier spricht er über seine Forschung zu blame (2013 soll dazu bei Psychological Inquiry ein Paper rauskommen). Sein Modell umfasst mehrere Stufen bei der Evaluierung von blame: Erstens, ist Kausalität gegeben (wenn nicht, kein blame), zweitens, ist Intentionalität gegeben. Wenn Ja, dann definieren die abgegebenen Gründe den degree of blame. Wenn Nein, wird geprüft ob eine Verpflichtung bestand z.B. etwas zu verhindern (wenn Nein, kein Blame) und die Fähigkeit, etwas dagegen zu tun (wenn Nein, kein blame). Je nach Stärke dieser beiden Faktoren bemisst sich dann der blame. Zu den Emotionen sagt er, dass es ein Vorteil sein könnte, dass man gewisse Emotionen nicht ins System einbauen müsste (allerdings stellt sich dann die Frage, inwieweit das menschliche Gegenüber einem emotionslosen moralischen Roboter seine „Moralität“ abnehmen würde).

Schliesslich muss das System eine Form moralischer Kommunikation beherrschen, d.h. Handlungen erklären bzw. rechtfertigen und eine Form von „Verhandlung“ über moralische Sachverhalte umsetzen können. Er sieht darin eine Schlüsselfunktion, die oft vergessen geht.

Am Nachmittag folgt dann die zweite Session. Zuerst spricht Keith Douglas zu application security. Er stellt im wesentlichen fest, dass es theoretisch unmöglich ist, einen Software-Code vollständig auf Fehlerfreiheit zu prüfen, dies sei eine Folge des Rice Theorems. Das Problem des vulnerability assessment von Software ist also nicht lösbar. Zudem ist es auch theoretisch nicht messbar, wie umfassend man einen Code auf Fehler geprüft hat, das Problem des code coverage ist ebenfalls unlösbar. Schliesslich stellt sich auch das praktische Problem, dass man einem normalen Nutzer dieses Sachverhalt letztlich auch nicht erklären kann, weil die entsprechenden Beweise sehr theoretisch sind. So stellt sich das ethische Problem, dass man von Software-Ingenieuren Anforderungen hinsichtlich Sicherheit von Software stellen würde, die sie aus theoretischen Gründen gar nicht erfüllen könnten. Tony Doyle spricht zum Problem der Überwachung – vorab mittels Überwachungskameras. Er beklagt, dass die Idee der öffentlichen Anonymität mehr und mehr unterhöhlt wird. Die vorgebrachten Argumente sind bekannt (auch, dass man einmal aufgebaute Überwachungssysteme kaum mehr wegbringt). Hauptproblem ist wohl eher die Möglichkeit, dass Daten aus unterschiedlichen Quellen zu einem umfassenden Bild einer Person zusammengeführt werden können. Jarek Gryz schliesslich plädiert dafür, dass man privacy als eine Art „information commodity“ ansehen sollte, also als exklusives Eigentumsrecht verstanden werden sollte. Er sieht drei Aspekte von privacy: solitude (das Recht, allein gelassen zu werden), anonymity (psychologische Komponente), und secrecy (gewisse Informationen sind nicht öffentlich). Privacy sollte also als etwas angesehen werden, dass ökonomischen Wert habe. Gründe dafür sind: man investiert viele Ressourcen in die Aufrechterhaltung von Privacy, man gibt pribate Informationen nicht einfach gratis weg (man erhält immer auch etwas zurück), der Wert privater Information ist „negativ“ (es sind Geheimnisse), der Wert privater Information wächst mit sozialer Distanz (nicht sehr plausibel, man kann ja auch Geheimnisse gegenüber seinem nahen Umfeld haben). Wenn privacy einen ökonomischen Wert habe, dann kann man eine Verletzung von Privacy als eine Form von Diebstahl ansehenen.

Es folgte dann die Session mit meinem Vortrag – die beiden anderen Beiträger sind nicht aufgetaucht, so dass ich in die Session mit Susan und Michael Anderson gegangen bin. Diese haben einen generalisierten „ethical dilemma analyzer“ entwickelt. Die Idee ist interessant, das vorgestellte Produkt überzeugte aber noch nicht (die Sache genauer anschauen).

In der ersten Session vom Dienstag entfiel der erste Vortrag und Mariarosaria Taddeo gab eine kurze Einführung in die Idee der Information Ethics (jede Entität, die Information trägt, hat einen ethischen Wert proportional zum Informationsgehalt, Information zerstören ist ethisch falsch – der Ansatz provoziert viele Fragen). Erica Neely sprach dann zur Frage, inwieweit die virtuelle Identität eines Nutzers sich von seiner physischen Identität unterscheidet. Sie wendet sich gegen die (unsinnige) These, dass man es hierbei mit verschiedenen Identitäten zu tun habe. Auch unterscheiden sich die Verhaltensweisen offline und online nicht grundsätzlich voneinander. Interessant ist auch die Beobachtung, dass selbst Hacker, die ihre Anonymität wahren wollen, dennoch in ihrer anonymen Identität wiedererkannt werden wollen. Mariarosaria Taddeo sprach dann zum Thema, welche individuellen Rechte man im Informationszeitalter im Hinblick auf die Teilnahme am Cyberspace und den entsprechenden Technologien habe. Derzeit erlebt man ein Verwischen verschiedener Grenzen (zwischen Institutionen und Akteuren) und ein Wandel hinsichtlich der Einstellung, was Sicherheit im Internet bedeutet und wer dafür verantwortlich sein soll: nicht mehr private Unternehmen mit ihren Security-Produkten, sondern der Staat. Man kann in den letzten Jahren eine grosse Zunahme von Gesetzen sehen, die das Internet betreffen. Die Frage ist nun, was will man schützen? Grundsätzlich gibt es Daten und Handlungen im Cyberspace, die Gegenstand von Schutzrechten sein können. Als Basis für eine Legitimierung von solchen Rechten nennt sie den capability approach von Sen. Sie sieht vier Grundrechte – drei davon sind Abwehrrechte, eines davon ist ein Anspruchsrecht: 1) Zugang zum Cyberspace, 2) Transparente und faire Interaktionen im Cyberspace, 3) Kontrolle über die eigene Information (Privacy), 4) Sicherheit im Cyberspace. Das Problem ist nun, dass Recht 4 mit den ersten drei Rechten in Konflikt geraten kann (wie auch sonst). Das tönt alles wie die Abbildung des traditionellen liberalen Rechtsstaatsverständnisses auf das Internet. Doch viele heutige Staaten sehen einen weit grösseren Anspruchsraum (Wohlfahrtsstaat) – wie sieht der Wohlfahrtsstaat im Internet aus (will man diesen dort überhaupt?). Das sollte man auch fragen.

Den zweiten Keynote Vortrag gab Shaun Nichols. Er untersucht die klassische Dichotomie der Moralpsychologie und -philosophie zwischen Rationalität (klassischer Vertreter: Samuel Clark) und Emotion (Francis Hutcheson). Bekanntlich überwiegt derzeit ja letzteres. Kontext sind die nicht-utilitaristischen Entscheidungen im Trolley-Dilemma (fat man). Er will die Ansicht angreifen, dass die Entscheidung bei fat man, nicht fünf zu retten, eine quasi emotionale (irrationale) Entscheidung sei. Bei vielen anderen ähnlichen Entscheidungen ist klar, dass sie nichtemotional sind (gemessen an Emotions-Ratings der Probanden), z.B. lügt man nicht, um das common good zu steigern. Er orientiert sich am moral grammar Ansatz von Hauser et al. und am size Prinzip (hier geht es um die Verschachtelung von Hypothesen und den damit verbundenen Wahrscheinlichkeiten, so dass man je nach Evidenzlage eine entsprechende Hypothese rational wählt). Sie untersuchen derzeit verschachtelte Hypothesen zur rationalen Rechtfertigung von Handlungen: intendierte Konsequenzen < (enthalten in) vorhersehbare Konsequenzen (side effects) < Konsequenzen als Folgen des Agents (auch Unfälle) < alle Konsequenzen (auch solche anderer agents). Man kann deontologisches reasoning als Fokus auf ersteres (intendierte Konsequenzen) und utilitaristisches reasoning als Fokus auf letzteres (alle Konsequenzen) ansehen. Mit raffinierten Experimenten (auf die Publikationen waren) zeigen sie nun, dass es rational ist, Normen zu wählen, die zuerst einmal die intendierten Konsequenzen betreffen. Die Entscheidung bei fat man ist so gesehen zuerst einmal eine Realisierung des Prinzips „töte nicht“. Seine Schlussfolgerung: es ist statistisch irrational, utilitaristische Normen basierend auf der Evidenz zu wählen, die wir im Alltag hinsichtlich moralischer Fragen haben.

Es folgt am Nachmittag die Session zu deception und counter-deception. Zuerst spricht Micah Clark zur Frage, ob es künftig Maschinen gibt, die Lügen (danach stellt er klar, dass er nicht notwendigerweise intentionales Lügen meint, sondern eher, ob Maschinen Lügen simulieren werden). Heutige Systeme haben keine Absicht zu Lügen oder ein Bewusstsein, dass sie lügen, doch das könne sich ändern (er bringt ein Beispiel dazu, dass ich nicht verstanden habe). Interessanter Gedanke: eine Maschine, die den Turing-Test besteht, muss wohl auch lügen können. Will Bridewell präsentiert dann eine Klassifikation verschiedener Arten von Täuschung (insgesamt 4, uch habe nur drei aufgeschrieben): Lügen, Bullshitting (man vertritt etwas, ohne an der Wahrheit der Sache interessiert zu sein; Frankfurt), Ablenken. Danach folgt ein detailliertes kognitives Modell dieser vier Varianten. Naveen Sundar Govindarajulu’s Vortrag ist dann sehr interessant: Er entwickelt spiele, die Theoreme lösen sollen, die dann für die Beurteilung der Sicherheit von Software eingesetzt werden sollen – eine Gamefication fon IT Security. Das scheint ein Darpa-Projekt zu sein. Nachprüfen.

Am dritten Tag besuchte ich dann das Symposium zu Cyber-Conflict. Sehr interessant waren die Ausführungen von Jeffrey Caton. Das Grundproblem des heutigen Cyberwars ist Zeit: Angriffe können auf derart kurzen Zeitskalen erfolgen, dass eine Antwort unter Einbezug menschlicher Entscheider zu lange dauert. Es braucht also automatisierte Systeme. Die Frage ist nun, ob das eine Eskalationssequenz initiieren kann (wenn die Gegenseite analoge Systeme hat), die sich quasi unbemerkt aufschaukelt. Wie kann man das klassische Kriegsrecht (u.a. Proportionalität einer militärischen Antwort, Vermeidung ziviler Schäden und Opfer) unter diesen Umständen aufrecht erhalten. Er bringt zwei historische Fallbeispiele, bei denen eine Automatisierung fatale Konsequenzen hätte haben können: a) der Able Archer Vorfall von 1983. Ein Nato-Manöver, das einen Atomangriff auf die WaPa-Staaten simulierte. Die UdSSR sah das Manöver (auch aufgrund eines neuen RYAN-Beurteilungssystems) als Tarnung eines tatsächlichen Atomangriffs an und initiierte Massnahmen, die wiederum die Nato in Alarmbereitschaft versetzte. Die ganze Struktur der gegenseitigen militärischen Entscheidungssysteme waren auf Eskalation angesetzt (und auch die damalige weltpolitische Lage). Letztlich waren es die Informationen eines umgedrehten KGB-Agenten, die dazu führten, dass es keinen mitteleuropäischen Atomkrieg gab. Einen analogen Vorfall gab es 1997, als ein neuer Typ einer norwegischen Forschungsrakete gestartet wurde, was von Russland zunächst als möglicher EMP-Atomschlag interpretiert wurde.  Die heutige Frage ist nun, wie man einen möglichen Cyberschlag als solchen erkennt. Die Grauzone ist gross (z.B. Hack des AP Accounts im Mai 2013 mit Falschmeldung eines Anschlags auf den Präsidenten und anschliessendem Flashcrash der Wallstreet). Sollen solche Dinge als Vorfall eines Cyberkriegs gewertet werden? Da solche Dinge derart schnell passieren, ist Automatisierung unumgänglich. Doch kennt man die Folgen solcher automatisierter „Reflexe“? Das ist nicht dasselbe wie andere Formen von Automatisierung auf dem Schlachtfeld, wo man die Auswirkungen genau kennt (z.B. automatische Abwehrsysteme von Navy-Schiffen). Andererseits: ist es wirklich immer so unklar, welche Folgen eine Gegenreaktion hat? Danach sprach Jody Prescott zum responsibe cyber commander. Hinweis auf das Tallinn Manual (Cambridge University Press), das die Rechtslage zu cyberwarfare zusammenfasst. Einige Bemerkungen zur US cyberwarfare strategy mit dem Problem der Grauzonen. Es wurden hier offenbar  red lines definiert (sind aber geheim). Letztlich diskutiert er dasselbe Problem wie oben: wie soll ein Kommandant mit autonomen Unterstützungssystemen umgehen? Derzeit ist nicht denkbar, dass Verantwortung an solche Systeme abgetreten wird. Eine Frage die sich hier auch stellt: wenn Menschen in den „Loop“ eingebaut werden: wie sind diese geprägt? Technologiegeprägte Menschen neigen dazu, sich in ihrem Entscheidungsverhalten Computern anzupassen (z.B. rasch oberflächlich viel Information scannen). Es gibt offenbar Kulturunterschiede auch innerhalb des US Cyber Command. Hier dürften sich die wichtigen Fragen verbergen: Welche Art von Mensch wird mit den Maschinen interagieren? Werden diese die gleiche strategische Intelligenz haben wie jene, die im Kalten Krieg in einigen Fällen Eskalation vermieden haben?


28.-30. Juni 2013: Society for Applied Philosophy – Annual Conference

Ich habe nur am ersten und dritten Tag Vorträge besucht. Am ersten Tag die Session zum assistierten Suizid. Susanne Boshammer plädiert dafür, das Problem nicht primär aus der Perspektive der Autonomie zu untersuchen, sondern von der Frage auszugehen, ob es eine Pflicht gibt, am Leben zu bleiben. Aus einer solchen Pflicht liesse sich direkt ableiten, dass eine Suizidassistenz moralisch abzulehnen ist und der Staat das Recht hat, eine solche zu verbieten (was sie ablehnt). Doch was für eine Pflicht wäre das? Eine direkte Pflicht wäre einer Instanz wie Gott oder auch der Familie geschuldet (vorab ersteres war lange Zeit der Grund für die Verurteilung des Suizids generell) – eine solche Pflicht lehnt sie ab. Eine indirekte Pflicht ist dadurch gegeben, dass das eigene Leben Voraussetzung dafür ist, andere Pflichten, die man hat (z.B. gegenüber der Familie), zu erfüllen. Eine solche indirekte Pflicht liesse sich sinnvoll verteidigen, würde aber nicht absolut gelten – denn wenn man aus den anderen Pflichten entlassen wird, entfällt die Pflicht, am Leben zu bleiben. Da die Situation, in der assistierter Suizid stattfindet, meist von terminaler Krankheit geprägt ist, kann man davon ausgehen. dass eine solche Pflicht in diesen Fällen nicht besteht. Daraus kann man aber nicht schliessen, dass ein Recht auf Suizidbeihilfe besteht – lediglich ein Verbot der Inanspruchnahme einer Suizidbeihilfe besteht nicht. Peter Schaber argumentiert aus der Autonomieperspektive, verstanden als das Recht, über Dinge, die das eigene Leben betreffen, selbst entscheiden zu können. Wenn dieses Recht gilt und Suizid zu den Dingen gehört, über die man selbst entscheiden darf, dann sollte dieses Recht nicht auf Suizid aufgrund von terminaler Krankheit beschränkt werden. Autonomie beinhaltet auch das Recht, sich von (aus der Sicht Dritter) falschen Einschätzungen leiten zu lassen. Entsprechende Einschränkungen müssen sich auf andere Prinzipien stützen (z.B. Fürsorgepflichten gegenüber Minderjährigen). Man sollte das Problem der Suizidbeihilfe zudem von der Perspektive untersuchen, wer das Recht hat zu intervenieren. Der Staat hat dieses Recht nicht, weil er nicht die normative Autorität hat, über diese Thematik zu bestimmen. Ralf Stoecker spricht vor allem über die ärztliche Suizidbeihilfe, die er ablehnt. Seine Perspektive ist jene der ethischen Konsequenzen eines Suizids. Er sieht die Gefahr einer Symmetrie: wenn man zum einen den Suizid einer Person P zum Zeitpunkt X wegen der schlechten Folgen ablehnt, könnte man den Suizid der Person zu einem späteren Zeitpunkt einfordern, wenn dies positive Folgen hat.

Effy Vayena sprach am Sonntag über ihre Arbeit zur Ethik-Regulierung von participant centered health research. Es geht hier um das interessante Phänomen, dass sich Patienten selbst via soziale Netzwerke organisieren und Forschung an sich selbst durchführen. Solche patientengetriebene Forschungen haben auch schon zu Publikationen geführt – doch wie will man in dieser Art selbstorganisierter Forschung eine Ethik-Beurteilung durchführen? Klassische Verfahren stossen hier an ihre Grenzen. An sich ist dieses ganze Setting ein sehr interessantes Experimentierfeld, um Ethik direkt in die Prozesse der Forschung einzubinden, anstelle dass sie eine Wachhund-Funktion hat. Die Frage ist natürlich auch, wie man mit dem Problem der zeitlichen Sequenzierung umgehen soll. Im klassischen System erfolgt die ethische Beurteilung ja bevor das Projekt erst durchgeführt wird – bei selbstorganisierter Forschung dürfte das kaum umsetzbar sein.

T.J. Kasperbauer sprach zu den psychologischen Grenzen der Umsetzung einer Klimapolitik. Im wesentlichen weiss man drei Dinge: Erstens, wissen, was das richtige ist, führt nur selten zu den entsprechenden Handlungen (bzw. die empirisch festgestellte Korrelation ist so schwach, dass eine Verhaltensveränderung nicht vorausgesagt werden kann). Zweitens, die umgesetzten Veränderungen haben kaum einen relevanten Impact bezüglich Klimaveränderung. Drittens, informiert man über tatsächliche Veränderungen (z.B. Senkung des Energieverbrauchs), so ergibt sich das Phänomen der Angleichung an den Mittelwert: Leute die schlechter abschneiden, versuchen sich zu verbessern – und Leute, die besser abschneiden gleichen ihr Verhalten nach unten ab. Information über stattgefundene Verhaltensveränderungen verlangsamen also die Dynamik des Wandels. Aus diesen Gründen ist es aussichtslos, auf der individuellen Ebene Verhaltensveränderungen erreichen zu wollen. Besser sind policy-Anpassungen. Hier aber ist man mit dem Problem der unterschiedlichen Weltsichten konfrontiert, die es ihrerseits erschweren, dass man sich überhaupt einigen kann. Dem Vortrag fehlt eine philosophische Schlussfolgerung aus dieser Problemlage.

Im Hauptvortrag von Angela Smith geht es um die Frage, in welchem Verhältnis Kontrolle und Verantwortung haben, wenn es um Haltungen (attitudes) wie Wünsche, Emotionen, Ansichten geht. Generell herrsche Konsens, dass man nur für das verantwortlich sein kann, was man kontrollieren kann. Doch kann man Haltungen, die man hat, kontrollieren? Unterliegen diese im gleichen Sinn einer Willenskontrolle wie Handlungen? Hierzu werden zwei Positionen vertreten: 1) Man zeichnet gewisse Haltungen als die eigenen aus (endorsement strategy) und dadurch übt man Kontrolle aus und man ist entsprechend für seine Haltungen verantwortlich. Diese Position lehnt sie ab (wird in diesem Vortrag aber nicht erläuert). 2) Man ist aufgrund der kausalen Geschichte für seine Haltungen verantwortlich, d.h. Haltungen entstehen aus vielen vorgängigen Entscheidungen, über die man Kontrolle hatte. Im Vortrag wendet sie sich gegen diese Position. Sie vertritt die Gegenposition, dass es die „judgment sensitivity“ von Haltungen ist, um die es geht, d.h. man kann Gründe, die mit diesen Haltungen verbunden sind, erkennen und beurteilen. Nur wenn man das nicht kann, ist man für seine Haltungen nicht verantwortlich. Sie hat dazu mehrfach geschrieben, lies ihre Papers.

 


25. März 2013: Vortrag Panksepp

Jaak Panksepp spricht zur affektiven Neurowissenschaft bzw. der Bedeutung von Emotionen für den Geist (der Tiere). Er plädiert dafür, dass die Frühformen von Bewusstsein emotional gewesen sind, also das Bewusstsein, dass etwas gefällt oder nicht gefällt. Er spricht von Emotionen ohne propositionalem Gehalt – deshalb verwendet er auch in seinen Texten Grossbuchstaben für diese Emotionen. Sein Interesse gilt insbesondere sadness und play. Einige kurze historische Bemerkungen: als er 1971 Professor wurde, ist durch den Einzug der Verhaltenswissenschaftler in die Neurowissenschaft diese völlig „kognitiv“ geworden, Emotionen interessierte niemanden (Skinner bezeichnete 1953 Emotionen als „fictions“). Seine basalen Emotionssysteme sind: SEEK, RAGE, LUST, CARE, PANIK, FEAR, PLAY. Diese primary processes sind subkortikal, sie treiben sekundäre Prozesse (unbewusst; upper limbic system) und diese dann die kognitiven Prozesse (kortikal). Er bringt Beispiele seiner Erforschung des PLAY Systems, das Anhaltspunkte für neue Antidepressiva bringt (siehe dazu Brugdoff, Panksepp, Moskal, Neurosci Biobehav Rev).
 

 


21. März 2013: Drohnen-Konferenz

Ich besuche nur den dritten Tag der Konferenz „The Ethical, Strategic & Legal Implications of Drone Warfare“ des Kroc Institute von Notre Dame. Die heutigen Themen sind Strategie und Menschenwürde. Sehr interessant waren die Ausführungen von General James E. Cartwright. Er erläutert, dass der Einsatz von Rechenkraft alle Bereiche der Kriegsführung fundamental verändert – Drohnen sind nur ein Teil davon. Ein Aspekt, wo sich die Veränderung zeigt, sind gewissermassen die Grössenskalen: Im Zweiten Weltkrieg operierte man strategisch noch auf der Ebene von Armeen, im Vietnamkrieg auf der Ebene von Brigaden und heute auf der Ebene kleiner Einheiten (Platoons und dergleichen). Generell sind weniger Soldaten involviert, die dann aber technologisch hochgradig ausgerüstet sind. Ein zweites Element der Veränderung betrifft die Plattformen, bzw. Waffensysteme. Deren Entwicklung dauerte früher in der Grössenordnung von 5-6 Jahre, jetzt sind es fast schon Jahrzehnte – man denke etwa an das neue Kampfflugzeug F35 (Startschuss war 1979). Das Problem hier ist, dass sich die Armee gegenüber den Gegnern in der asymmetrischen Kriegsführung in einem Kostenwettlauf befindet, der nur verloren werden kann. Einfache Angriffs-Massnahmen wie z.B. Bomben am Strassenrand verlangen einen hohen Bedarf zum Schutz der wenigen, wertvollen Soldaten: z.B. Mehr Panzerung, das heisst dann auch mehr Treibstoff, der wiederum ist sehr teuer in Kriegszonen (eine Gallone in Afghanistan kostet 400 Dollar) etc. Der Einsatz von Drohnen und unbemannten Systemen ist demnach schlicht aus Kostengründen nötig. Die Digitalisierung zeigt sich aber auch andernorts: Früher wurden zwar auch grosse Datenmengen z.B. in der Aufklärung erzeugt – es handelt sich dabei aber um analoges Material. Im ersten Golfkrieg (?) brauchte eine Aufklärungs-Einheit (?) rund 70 Mann zur Sichtung und Auswertung des Bildmaterials. Heute geschieht die Vorauswertung weitgehend maschinell, weil die Bilder digitalisiert sind. Ein weiterer wichtiger Punkt: vollständig autonome Kampfsysteme sind weitgehend unbrauchbar und auch nicht das Ziel des Militärs. Vielmehr geht es darum, den „man in the loop“ an der richtigen Stelle einzusetzen, so dass das Gesamtsystem Mensch-Technologie optimal funktioniert. Es geht um ein technisches Enhancement der Kämpfer z.B. hinsichtlich Sinn, Ausdauer, Freund-Feind-Erkennung. Computer sind dem Menschen in der Verarbeitung grosser Informationsmengen sowie als schlichte Korrelations-Lerner dem Menschen überlegen, Menschen sind in der symbolischen Informationsverarbeitung dem Computer überlegen (d.h. im Erkennen von Bedeutungen). Hauptforschung heute ist demnach die Gestaltung des Man-Machine-Interfaces derart, dass beide Stärken optimal kooperieren können. Und insbesondere das Optimieren dieser Zusammenarbeit kann nicht an Maschinen delegiert werden. Drohnen sind nun ein exemplarisches Beispiel, um diese Entwicklung zu illustrieren. Die Reaper-Drohnen sind dabei nur ein eher unwesentlicher Teil. Fakt ist, dass taktische Drohnen heute dauernd im Einsatz sind und es den Soldaten erlauben, via iPad beispielsweise zu schauen, wie das Schlachtfeld heute aussieht, wo man Feindkontakt erwarten kann, wer hinter einer Mauer ist. Man holt nicht mehr ein Kampfflugzug für spezifische Einsätze, man hat Dauerüberwachung. Das kostet rund 10 mal weniger und bringt dennoch viel mehr. Dies verändert natürlich das Verhalten des Feindes – aber auch der eigenen Soldaten, die unter der Bedingung kämpfen, dass sie ständig beobachtet werden und dass alles, was sie tun, aufgezeichnet wird (ein enorm wichtiger Punkt, hier nachhaken: Verantwortlichkeiten bei Kriegsverbrechen; was genau verändert sich? etc.). Dies hat auch Auswirkungen auf die Verluste. Afghanistan ist offenbar der erste Krieg, in der die Alterskohorte der 18-35 Jahre alten Männer im Kriegsverlauf bei der betroffenen Bevölkerung zugenommen hat.

Danach spricht Peter Bergen von der New America Foundation (er soll vor zwei Jahren etwas in Foreign Affairs zum Thema veröffentlicht haben, nachprüfen). Er spricht über das CIA-Drohnenprogramm. 2002 wurde erstmals zugeschlagen, unter Bush (in acht Jahren) gab es insgesamt 49 strikes vorab gegen Al Kaida, unter Obama 301, verstärkt generell gegen die Taliban – also alle vier Tage. Drohnen sind die bevorzugte Waffe Obamas. Unter Obama starben 3300 Personen (Kollateralschaden?) durch Drohnenschläge, ironischerweise deutlich mehr als Bush insgesamt nach Guantanamo geschickt hat. Derzeit ist der Jemen ein neuer Fokus des CIA-Programms, die meisten Schläge wurden aber im tribal land von Pakistan ausgeführt, das de fakto nicht unter staatlicher Kontrolle Pakistans steht. Die relevanten Zahlen finden sich in der Datenbank der New America Foundation, dort nachschauen. Die Daten weisen darauf hin, dass die Drohnenschläge generell immer präziser werden. d.h. weniger Kollateralschaden (Bergen: es sei ein Mythos, dass Drohnen vorab Zivilisten töten). Auch aus den erbeuteten Aufzeichnungen von Bin Laden geht hervor, dass dieser sehr besorgt war über die Drohnenschläge und z.B. den Kämpfern vorschlug, sich in waldreiche Gebiete zurückzuziehen. Es gibt aber auch andere „Kollateralschäden“, z.B. erschiessen Taliban regelmässig Zivilisten, die im Verdacht stehen, Informationen für Drohnenschläge zu geben. Interessant ist auch die hohe Zustimmung der US-Bevölkerung zum Drohnenprogramm, nur 26% lehnen das ab. In vielen Operationsgebieten dürften die jeweiligen Regierungen heimlich ebenfalls zustimmen, dürfen dies aber öffentlich nicht sagen (z.B. Jemen: WikiLeaks hat das veröffentlicht). Heute haben mindestens 70 Staaten Drohnen, China und Russland werden sehr bald bewaffnete Drohnen haben.

Audrey Kurth Cronin spricht zur Frage, ob Drohnen strategisch das richtige Instrument sind, um die gewünschten Ziele zu erreichen – also: funktioniert dieser Ansatz? Sie fokussiert dabei rein auf die bewaffneten Drohnen. US-counterterrorism hat drei Ziele: 1) Al Kaida vernichten bzw. operationsunfähig machen; 2) die Gewalt zu den Terroristen selbst bringen, also ausserhalb der USA; 3) Schutz der US-Bevölkerung vor Terroranschlägen erhöhen. Zum Ziel 1: In der Tat ist es gelungen, wichtige Führungskräfte auszuschalten und generell die Zahl der Anschläge, die von Al Kaida ausgegangen sind, zu reduzieren. Doch die Organisation selbst ist bei weitem nicht ausgelöscht, neue Führer rücken nach, die Propagandakanäle funktionieren weiterhin, Al Kaida attackiert immer noch Zivilisten. Enthauptung als Strategie scheint also nicht ausreichend, man setzt heute auf generelle Repression. Dennoch muss man festhalten, dass Ziel 1 nicht erreicht worden ist. Zum Ziel 2: Man sieht Drohnen als effektiveren Weg an, den Krieg zu den Terroristen zu bringen (Alternativen wäre z.B. militärische Besetzung). Es ist allerdings schwierig, Ursache und Wirkung klar zu trennen (z.B. vermindern oder erhöhen Drohnenschläge die Zahl der Terroristen?), zudem sind die Effekte dieser Strategie offenbar unerwünscht. Die USA zahlen z.B. 4.3 Mrd. Dollar Entwicklungshilfe an Pakistan (wann?), doch 3/4 der Pakistani sehen die USA als Feind an. Alle Verbündeten der USA lehnen den Drohnenkrieg ab. Die Antwort zum Ziel 2 ist also uneinheitlich. Zum Ziel 3: Hier scheint es vorab um das Gefühl der Sicherheit zu gehen – Drohnen unterstützen dieses Gefühl: Die Schläge finden weit weg statt, sind risikoarm, kosten wenig, und sind effektiv. Seit 9/11 starben nur 14 US-Amerikaner durch Terroranschläge (vor Boston), in den 1990ern starben 202. Es gibt also gute Gründe anzunehmen, dass die Strategie funktioniert. Interessant ist aber dennoch, dass sich die Leute in den USA nicht sicher fühlen (obwohl sie so sicher sind, wie schon lange nicht mehr). Man muss hier auch bedenken, dass die rechtsextreme Gewalt in den USA zugenommen hat.

Michael Desch machte einige Kommentare zu den drei Vorträgen. Sein Hauptpunkt ist, dass die Alternativen zu Drohnen für die Terrorbekämpfung möglicherweise schlechter sind.

Danach spricht Micah Zenko. Er hält den Drohnenkrieg für einen neuen, eigenständigen Krieg der USA. Die Begründung der Schläge in Pakistan (gegen den eigentlichen Feind in Afghanistan) erinnert an die Begründung Nixons der Schläge in Kambodscha (gegen den Feind aus Vietnam). Zudem erinnert er, dass die USA noch vor wenigen Jahren sich gegen die Strategie der gezielten Tötungen durch Israel ausgesprochen haben, nun aber dasselbe tun. Auch die Bezeichnung der Ziele hat geändert. Früher sprach man von „Al Kaida Führern“, heute von „Militanten, welche den USA gefährlich werden könnten“. Er erinnert daran, dass die USA derzeit ein Präjudiz setzen, das anderen Staaten als Vorbild dienen könnte.

Mary Dudziak spricht zu einem eher theoretischen Thema: Wann ist (historisch) ein Krieg eigentlich fertig (sie schrieb ein Buch: war time)? Eine Frage die bei den neueren Konflikten (z.B. Irakkrieg) durchaus auch praktisch bedeutsam ist, z.B. hinsichtlich der Frage, wann das Kriegsrecht endet. Statt des Dualismus Krieg-Friede scheint der Dualismus Krise-Sicherheit der heutigen Situation eher zu entsprechen. Ein interessanter Aspekt des Drohnen-Kriegs. Früher (z.B. Vietnam) hiess das Schlagwort der Kriegsgegner „Bring the boys home“. Das funktioniert im Drohnenkrieg nicht mehr. Andere Faktoren: Es gibt keine draft (Aushebung) mehr, für diverse militärische Aktivitäten werden Privatfirmen eingesetzt – alles Faktoren, welche das gesellschaftliche Erleben der Kriegszeit verändern.

Rafia Zakarin spricht als Vertreterin von Amnesty International, aber auch als Pakistani. Sie erinnert an die enormen indirekten Kollateralschäden des Drohnenkriegs in ihrem Land: die (effektiven) Drohnenschläge in den Bergregionen treiben die Terroristen in die Städte und führen generell zu einer innerstaatlichen Migration in einem Vielvölkerstaat, wo Migration Auslöser von sozialen Unruhen sind. Die Folge ist insbesondere, dass regelmässig Terroranschläge nun in den Städten Pakistans stattfinden (insbesondere Karachi: 19 Mio. Einwohner, 26 Feuerwehrstationen). Die Rede von den wenigen Kollateraltoten von Drohnenschlägen ist deshalb irreführend: deren Einsatz destabilisiert das ganze Land, was Tausende von Toten zur Folge hat. Einige Zahlen: 2009 gab es 53 drone strikes mit 517-729 Toten, dazu rund 500 Terroranschläge (gezählt sind nur die Bombenanschläge, nicht jene ausgeführt mit anderen Waffen), 80% davon im Nordwesten Pakistans. 2010 gab es 128 drone strikes un rund 470 Terroranschläge, 2011 75 drone strikes und 673 Terroranschläge, 2012 waren es 48 drone strikes und 632 Terroranschläge – also der Terror wurde keineswegs vermindert, er hat sich allerdings nun auf ganz Pakistan ausgedehnt. Bilanz derzeit: rund 45‘000 Tote. Gewiss erklären Drohnen allein dieses Phänomen nicht, auch die Operationen der pakistanischen Armee treiben die Terroristen in die Städte. Dennoch: der Drohnenkrieg ist nicht „präzis“, er hat enorme Kollateralschäden.

Der Journalist Chris Woods spricht über die Frage, wie man Informationen über den Drohnenkrieg erhält (siehe dazu auch www.tbij.com). Er nennt auch das Beispiel Libyen, wo die USA 2011 ebenfalls drone strikes durchführten – Drohnen werden zur bevorzugten Waffe des US Militärs. èber teilweise sehr kleinen Gebieten gibt es eine hohe Dichte an Drohnen. Derzeit werden rund ¼ aller Luft-Boden-Raketen von Drohnen abgeschossen, vor wenigen Jahren waren das nur 10%. Hinweis darauf, dass das CIA die Zahl der zivilen Opfer unterschätzt. Gemäss deren Zahlen waren von 2000 Drohnen-Toten deren 50 Zivilisten, offizielle pakistanische Quellen rechnen mit 400 zivilen Opfern bei 2000 Toten, TBIJ mit 359 bei 2135 Toten. Im Zeitverlauf nimmt die Zahl der zivilen Opfer gemäss ihren Angaben aber ab. Zu den oben genannten Vertreibungen: seiner Ansicht nach ist das pakistanische Militär hier die Hauptursache. Ein Problem der high value targets: sie umgeben sich mit vielen Zivilisten, die möglicherweise so was wie ein freiwilliges humanes Schutzschild sind (und das CIA zählt diese vielleicht nicht als Zivilisten).

 


14.-15. Februar 2013: Xenomelie-Konferenz

Hier finden sich alle Folien zur Veranstaltung.

Peter Brugger macht den Einführungsvortrag: Hinweis auf die verschiedenen Begriffe, die rund um diese Störung eingeführt worden sind (übrigens taucht auch „hobbyism“ in diesem Kontext auf). Das spielt eine Rolle, denn der Name beinhaltet auch einen Bias, wie man das Phänomen angeht (z.B. als Identitätsstörung oder aber als Hirnkrankheit). Hinweis auf eine einfache Untersuchung (Umfrage) von ihnen: sie haben ja eine Korrelation zwischen Xenomelie und Abnormitäten im Cortex gefunden: Was halten die Leute für wahrscheinlicher? Dass die Abnormität Xenomelie verursacht? Oder dass die Xenomelie die Abnormität verursacht (ist gleichermassen plausibel). Ersteres wird von den Leuten als viel wahrscheinlicher angesehen (mehrere tausend Antworten).

Michael B. First spricht dann generell über BIID – er prägte diesen Ausdruck und verwendet ihn deshalb auch weiter. Kurze Begriffsgeschichte: 1977: Apotemnophilia; 1997: Factilious Disability Disorder; 2000: Amputee Identity Disorder; 2005: BIID; 2011: Xenomelia. Er sieht Parallelen zwischen BIID und GID – deshalb wählte er auch diesen Namen. Charakteristisch für diese Analogie sind: Beide Störungen treten meist in der Kindheit/Adoleszenz auf; beide simulieren die neue Identität (Amputation vortäuschen); chirurgische Therapie ist (zumindest bei einigen) erfolgreich. Entsprechend schlug er eine DMS-5-Definition für BIID analog zu GID vor: a) Intense and persisting desire tob e physically disabled; b) persistent discomfort with current state; c) desire results in harmful consequences; d) desire is not sexually or monetary motivated; e) desire is not a manifestation of a psychotic process. Faktoren, welche die Definition erschweren sind: unterschiedliche Ausprägung (nicht nur Wunsch nach Amputation); unterschiedliche Ursachen scheinen dasselbe Phänomen zu generieren. Er sieht drei Dimensionen der Störung, die unterschiedlich stark ausgeprägt sein können.

Viele Fälle lassen sich als Kombination dieser drei Dimensionen beschreiben, „reine“ Fälle sind sehr selten. Er hat in seiner eigenen Forschung durch das Design der Befragung einen BIID-Bias. Es gab Versuche (von First), BIID in DMS-5 aufzunehmen, das scheiterte, da es von BDD als differenzialdiagnostisches Ausschlusskriterium, im Kontext von GID (heisst nun übrigens Gender Dysphoria und ist nicht mehr unter mental disorders, sondern sexual disorders gelistet) ebenfalls aus Ausschlusskriterium, sowie unter Ziffer 300.9 (F99): Other specified mental disorders, unter dem Namen BIID. Die Störung könnte in ICD-11 aufgenommen werden (fällig für 2015), entsprechende Bestrebungen sind am Laufen.

Silvia Oddo äussert sich ebenfalls zur Definition von BIID. Sie betont die Wichtigkeit des Pretending. Weitere Charakteristika sei, dass vorab Männer (vermutlich höhere Prävalenz unter Homosexuellen) und vorab Personen mit guter Ausbildung betroffen sind (bzw. sich outen) – das könnten aber alles Sampling Effekte sein. In der psychiatrischen Abklärung wird jeweils klar, dass die Personen autonomiefähig sind, leistungsorientiert sind und gewisse neurotische Züge haben. Die Personen haben hohe Tendenz zur self-affirmation. Allfällige psychische Störungen sind vorab als Konsequenz von BIID anzusehen, z.B. Scham, Frustration aufgrund unerfülltem Wunsch, Doppelleben. Es gibt derzeit – abgesehen von Amputation – offenbar keine funktionierende Therapie, doch Coping ist möglich. Resultate einer fMRI-Studie, in der man den Personen Bilder mit (simulierten) Amputationen zeigt: charakteristische Aktivierung emotionaler Zentren bei BIID-Personen vorab dann, wenn der eigene amputierte Körper gezeigt wird. Im (prä-)motorischen Kortex finden sich Hinweise dafür, dass die Personen den amputierten Zustand simulieren. Es finden sich auch Untersuchungen zu sexuellen Aspekten: Vorab der Zustand der eigenen Amputation wird als sexuell erregend angesehen, erst in zweiter Linie auch andere Amputierte.

Paul McGeoch, der den Begriff der Xenomelie prägte, sieht die Störung als neurologisch an. Paper von 2007 sieht eine Parallele zu Somatoparaphrenia. Er gibt eine Übersicht über verschiedene neurologische Krankheiten mit Auswirkungen auf Körpererfahrung: Misoplegia, diverse Formen von Neglekt, Anosognosia. Erläuterung eines Fallbeispiels, das die neurologische Komponente relativiert: Eine Person, welche beide Beine amputiert haben wollte; eins wurde amputiert, was das Bedürfnis der Amputation des zweiten Beins zum Verschwinden brachte. Danach stellte er vorab seine Studie mit Ramachandran vor.

Gabriella Bottini präsentierte die Resultate einer fMRI-Studie, sie suchte nach einer möglichen Lateralisierung der body processing functions. In mental rotation tasks finden sich Unterschiede, z.B. keine Cerebellum-Aktivität („failure to complete the somatosensory loop“). Sie prüfte auch affektive Reaktionen: BIID-Personen beurteilen den „disgust-character“ von Bildern mit Amputierten anders als normale Personen (was genau sagt das eigentlich aus?).

Jürgen Hänggi berichtet über die neue Brain Studie. Sie haben offenbar auch funktional (BOLD) gemessen, diese Resultate kommen noch: es scheint Unterschiede in der funktionalen Konnektivität zu geben. Resultate könnten Weg zu einer Therapie ebnen: Strukturelle Abweichungen durch neuroplastische Veränderungen rückgängig machen.

Der zweite Tag beginnt mit meinem Vortrag. Danach erläutert Matthias Bodmer die rechtlichen Aspekte. Bericht über ein historisches Fallbeispiel (19. (18.?) Jahrhundert): Engländer, der von einem französischen Arzt die Amputation eines Beines einforderte (er drohte mit Suizid, Amputation wurde vollzogen). Das Motiv könnte allerdings gewesen sein, dass er es seiner Frau gleichtun wollte, die ebenfalls amputiert war. Analogie zum Rechtssetzungsprozess im Bereich GID. Es dauerte dort sicher mehr als 50 Jahre, bis chirurgische Eingriffe legalisiert wurden. Erste bekannte GID-Operation erfolgte 1912. Als 1950 ein Fall diskutiert wurde, war die ethische Debatte vorab um den Begriff der „Demut“ konzentriert: Ärzte dürfen in solchen Fällen nicht „Gott“ spielen. Menschen sollten sich in solchen Fällen mit den gegebenen Grenzen der eigenen Existenz abfinden. In der Schweiz gibt es derzeit kein explizites Gesetz, das Geschlechtsumwandlungen erlaubt (aber auch kein Verbot?). Mehrere Gründe dürften im Bereich BIID eine rechtliche Legalisierung erschweren: es geht nur um sehr wenige Fälle, Rechtstraditionen in den einzelnen Ländern sind sehr unterschiedlich, BIID ist keine anerkannte Krankheit (der wichtigste Grund). Eine allfällige Legalisierung könnte sich auf Art. 8.1 der europäischen Menschenrechtskonvention abstützen (Recht auf Privatsphäre, Recht darauf, Aspekte der eigenen Identität selbst gestalten zu dürfen), eventuell auch auf die Deklaration von Helsinki (Ziffer 35: Ärzte dürfte in gewissen Fällen „ungewöhnliche Eingriffe“ durchführen). Gemäss dem Schweizer Strafgesetzbuch (Art. 122) gilt jeder chirurgische Eingriff als Körperverletzung, die legitimiert werden muss, damit sie straffrei ist. Im deutschen Strafrecht beinhaltet die Einwilligung in Interventionen, welche die Integrität des Körpers verletzen, einerseits die Sicherstellung, dass der Entscheid autonom erfolgte und dass dieser nicht gegen die „guten Sitten“ verstösst. Pro-Argumente für eine Legalisierung sind: Heute finden allfällige Amputationen im Verborgenen statt, was sich und andere gefährdet und die Notwendigkeit einer Lüge beinhaltet (man darf wahren Grund nicht nennen). Zudem ist es unfair, weil nur „Reiche“ sich das leisten können (Kosten illegale Amputation: 15‘000 Euro; legale Amputation: 5‘000 Euro). Gegenargumente: Man behandelt nur Symptom einer Störung, unklar, ob der gewünschte Effekt wirklich eintrifft, looping effects. Man müsste auch klären, wer die Amputation vornimmt, wer dafür bezahlt, und welche Art von herbeigeführter Behinderung man akzeptiert und welche nicht.

Erich Kasten und Sarah Noll berichten von einer Befragung von Ärzten und Psychiatern in Deutschland (60) und Grossbritannien (25). Diese sahen die Erkrankung eher als psychologisch an (im Sinn von BIID), gegen 90% waren strikt gegen die Option einer elektiven Amputation. Dies stellt die Frage, wie gut eigentlich diese Option ist. Hauptpunkt ihres Vortrags war denn auch eine Studie von Xenomelie-Patienten, die erfolgreich eine Amputation durchführen liessen: 21 Personen (18 Männer, Durchschnittsalter 53, 70% heterosexuell). Sie untersuchten retrospektiv (dürfte methodisch ein Problem sein) diverse Faktoren ein Jahr nach der Operation und kurz vor der Operation (Rückerinnerung). Offizielle Erklärung für die Amputation waren in der Regel Infektionen (am häufigsten), Infarkt oder Unfall. Generell zeigt sich über praktisch alle untersuchten Faktoren, dass die Patienten klar glücklicher sind nach der Operation, bedauert wurd einzig, dass man den Eingriff nicht schon früher gemacht habe. Viele sind auch überrascht, wie unproblematisch das Umfeld auf die Behinderung reagiert. Niemand empfand Scham oder Bedauern angesichts des Eingriffs. Die Betroffenen fühlen sich frei von BIID, haben ein besseres Körpergefühl, sind glücklicher und selbstsicherer. Vorgängig versuchte Therapien wie Psychotherapie und Medikamente hatten nie denselben positiven Effekt. Patienten spürten Phantomglieder, was aber als positiv empfunden wurde (Erinnerung an die Amputation). 17 hatten auch Phantomschmerzen.

Bigna Leutenegger spricht über einen integrativen Blick auf Xenomelie, der soziale Aspekt müsse insbesondere mehr berücksichtigt werden. Ein Ansatz alleine (Brain, Mind oder Society) reicht nicht aus, um die Störung zu verstehen, denn für jeden singulären Ansatz gibt es widersprüchliche Elemente. Man kann Xenomelie nicht alleine als mind disease ansehen, weil es offensichtlichneuronale Korrelate gibt. Man kann es aber auch nicht als brain disease ansehen, weil es z.B. Fälle gibt, wo der Amputationswunsch wechselt. Interessant an den heutigen Ansätzen ist, dass kulturelle Effekte oft vernachlässigt werden – bereits die oft beobachtete Simulation des Verhalten ist aber ein soziales Phänomen. Sie veriwest auf das sehr interessante Paper von Davis (Prosumption im Fall von Xenomelie): Looping-Effekte müssen berücksichtigt werden.


© 2024 go-leon* websolutions gmbh drucken schliessen