Textversion für blinde und sehbehinderte Personen sitemap
Home Textraum Hochzeit Arbeit Forschung encyclog

7.-10. Dezember 2015 – Genf, Brocher Foundation: The genomics of human cognition and psychiatric diseases

Thema dieses Workshops (invitation only) war die Frage der Auswirkungen der Genom-Forschung im Bereich Psychiatrie. Es gab Input-Vorträge und danach anschliessende Diskussionen. Hannelore Heidenreich sprach zuerst: Sie plädierte für ein deep phenotyping, d.h. man muss den Phänotyp psychiatrischer Krankheiten so umfassend wie möglich erfassen, was zeitaufwendig ist (Schätzung: 2 Wochen pro Patient, wenn korrekt erinnert. sie rechnen mit ca. 3000 möglichen Indikatoren). Man kennt heute im therapeutischen Kontext psychiatrischer Krankheiten die Geschichte der Patienten praktisch nicht. Sie zweifelt am Nutzen einer ausschliesslich auf Genom-weiten Assoziationsstudien basierten Forschung, insbesondere bei komplexen Krankheiten wie Schizophrenie. Die individuelle Varianz ist enorm gross. Hinweis auf eine Studie von Stepniak et al. 2014 Lancet Psychiatry zu accumulation of environmental risks.

Philipp Koellinger forscht zu genom-weiten Assoziationsstudien bezüglich sozialwissenschaftlichen Konzepten wie z.B. Schulerfolg. Wichtig ist auch hier das Verständnis von Genom und Umwelt (man bräuchte wohl auch eine Art phenotyping der Umwelt). Sie machen Studien mir mehr als 100‘000 Datensätzen – eine interessante publizierte Studie von ihm erschien im Science (340: 1467-1471, 2013). Man findet tatsächlich einen Zusammenhang zwischen SNIPS und Schulerfolgt, allerdings sehr tiefe Effektgrössen. Interessanter Gedanke aus der Diskussion: Es geht um den best fit zwischen Genen und Umwelt.

Keine Notizen zu Sabine Bahn und Thomas Bourgeron (interessanter Fall: Frau mit autistischem Kind hat enorm viel Aufwand geleistet und Kind konnte danach kommunizieren. Kind hat wie nachträglich erfahren eine Form genetischer Vorbelastung für Autismus: Hätte die Mutter das zu Beginn gewusst, hätte sie den Aufwand mit dem Kind nicht geleistet). Brenda Penninx: Zum Nutzen neuer diagnostischer Tools: Eine Beobachtung aus China, wo Ärzte Autismus-Abklärungen innert 5 Minuten machen müssen, weil sie keine Zeit haben. Auch zum zweiten Tag (wo ich meinen Vortrag gegeben habe) gibt’s keine Notizen, die Diskussionen waren sehr interessant.


15.-16. Oktober 2015 – Chicago: International Neuroethics Society Annual Meeting

Ich habe keine Notizen gemacht, hier der Link zur Veranstaltung: http://www.neuroethicssociety.org/meeting-coverage 


22.-25. Juni 2015 – University of Delaware: CEPE-IACAP 2015

Am ersten Tag beginnt William Rapaport zum Thema “On the Relation of Computing to the World” – ein sehr ausgefeilter Vortrag, der im Wesentlichen Reflektiert, was sie ihren Studierenden in Harvard lehren. Grundfrage: Ist Computing etwas über die Welt selbst („semantic“) oder über die Beschreibung der Welt („syntactic“)? Es folgen eine Reihe von Definitionen. Computer Science: Wissenschaft, was berechnet werden kann, wie es effizient berechnet werden kann und wie Computer gebaut werden. Die „was-Frage“ kann man theoretisch fassen (welche mathematische Funktionen kann man berechnen) oder praktisch (welche real world tasks sind berechenbar). Es folgen eine Reihe theoretischer Diskussionen (z.B.: Was ist eigentlich das Tape der Turing-Maschine: Ein Input-System, ein Output-System, Memory?). Definition Algorithmus: Ein endliches Set von Prozeduren beschrieben mit einem endlichen Set von Zeichen, nicht-ambig, klar definierte Semantik, prozessierbar in endlicher Zeit, führt zum gewünschten Ziel. Später führt er dann in seine Theorie der „syntactic semantics“ ein. Unter anderem Diskussion der Frage, ob man klar zwischen Algorithmus und dem Ziel, das der Algorithmus erreichen will, unterscheiden kann. (lese seine Arbeiten, um das genauer zu beschreiben). Keine Notizen zu den weiteren Vorträgen des Tages (u.a. auch weil ich noch den eigenen Vortrag vorbereiten musste).

Am nächsten Tag beginnt Brent Mittelstadt mit seinem Vortrag: Self-Care, Patient Empowerment and the Virtue of Personal Health Technologies (dazu weiss ich schon einiges, keine Notizen gemacht). Interessant war dann auch sein zweiter Vortrag über Contextual Dissonance in Big Data. Er geht von der klassischen Definition von Big Data aus (die vier V: volume: Datenmenge; velocity: Geschwindigkeit des Wachstums der Datenmenge; variety: sehr unterschiedliche Arten von Daten; veracity: Unklarheit, wie korrekt die Daten sind). Er spricht dann zur neuen, geplanten EU Datenschutzrichtlinie (neuste Fassung vom 15. Juni 2015). Wendet sich u.a. gegen Profiling (automatisches Prozessieren von Daten zwecks Analyse, Vorhersage und Kategorisierung von Personen). Natürlich gibt es heute schon Profilin z.B. in der Medizin (risk stratification), consumer behavior und criminal justice. Problem des profiling ohne feedback (d.h. man weiss nicht, dass man profiled wird und man kann das profile auch nicht ändern bzw. korrigieren) – genau das will die neue Datenschutzrichtlinie einführen (Absatz 48): dass man weiss, dass ein profile über einem existiert und dass man dieses ändern kann (Absatz 58) – absolut unklar, wie man das technisch umsetzen will. Absatz 51 will ein Zugangsrecht zu den persönlichen Daten, ein Verfahren um die Rechtmässigkeit des profiling-Prozesses zu prüfen und ein „Recht auf wissen“, warum das Profil erstellt wird und mittels welchen Mechanismen – auch das erscheint praktisch schwierig umzusetzen. Wie kann man die Übersicht behalten (www.futureofprivacy.org)? Wie kann man das praktisch umsetzen (www.thedatamap.org)?

Deborah Johnson spricht dann über Big Data Ethics. Ihre Voraussetzungen: es geht ihr nur um personal data, Anonymisierung kann nicht funktionieren. Ein Beispiel, das sie verwendet: die Facebook-Studie. Wer „ist schuld“ (Facebook, die Nutzer, die Forscher, das IRB, das Journal das die Studie veröffentlicht hat, US-Politik)? Einige Fragen, die sie interessant findet: Worin besteht eigentlich der Unterschied zwischen akademischer Forschung und privater (Marketing)-Forschung? Soll es für letztere keine Regulierungen geben? Man sollte Big Data als eine Herausforderung für kontextuelle Integrität ansehen. Wie kann informierte Zustimmung in diesem Bereich funktionieren? Halten die Leute Facebook für eine Art „natürliche Umgebung“? Keine Notizen dann zu den folgenden Talks.

Am dritten Tag beginnt dann Francis Grodzinsky mit dem Talk: Big Data: The Patterns of Our Lives through the Lens of the Virtues. Man muss Tugenden bei den data scientists fördern (die Slides sind sehr dicht – lese dann das Paper). Plädoyer gegen eine Idee einer „theorielosen Sicht“ auf die Daten. Problem in diesem Kontext „distributed many hands (Nissenbaum). Das präsentierte Argument wirkt etwas gar einfach.

Es folgen dann Stephen Lilley & Frances Grodzinsky: Should Social Physics Govern the Hyper-Connected, Big Data Age? Ausgangslage ist das Buch von Alex Pentland, der Social Physics in der Tradition des Positivismus von Auguste Compte beschreibt. Die tools von social physics sind: living labs (alle haben Sensoren), reality mining (man erfasst ganze Populationen), rein quantitative statt qualitative Methoden. Ziel: eine data driven society (z.B. alle wissen von allen, wie viel Energie sie brauchen; man informiert, wer abstimme geht etc. – totalitäre Transparenz). Fragen, die man beantworten muss: Welche Rolle spielen public goods in diesem Kontext (z.B. wie bei public health)? Welche Rolle spielen Machtverhältnisse? Sozialer Druck, soziales Stigma? An welchen Werten orientiert man sich (weitgehend utilitaristisches Denken, Kernwert ist „justice“). Empfehlungen: man muss Forschungsethik an diese neue Art von Forschung anpassen, man muss kritische Theorie einbeziehen, man muss Subjektivität einbeziehen.

Dann wieder ein interessanter Vortrag von John Sullins zur Frage: gibt es „beneficial AI“? Hier geht es um die Warnungen diverser Leute, wonach künstliche Intelligenz langfristig den Menschen bedroht. Seine Frage: wie kann man Ethik in AI-Forschung einbauen – und zwar auf der Stufe des Design? Dazu entwickeln sie ein sehr interessantes System (Paper lesen!). U.a.: repository von Deliberationen zu Fällen (er sollte bei unserer Konferenz am Monte Verita dabei sein!).

Es folgt der Vortrag von Michael Devito: The Sentimental Robot: Soldiers, Metal Psychopaths and Artificial Intelligence. Seine Frage: wie soll man moralisch handelnde Roboter bauen? Eher als prozedurales System (Idee der moral grammar)? Oder so was wie „emotionale Roboter“? – derzeit wird der erste Ansatz verfolgt. Das könnte falsch sein: letztlich baut man so Psychopathen (interessantes Argument, Paper lesen).

Ebenfalls sehr interessant ist der Vortrag von Johnny Hartz Søraker: Beyond Right and Wrong – Applying Prudential-Empirical Ethics of Technology (PEET) to Autonomous Cars. Er hat ein grosses Thema: designing for well-being. Man soll die Erkenntnisse der positive Psychologie mehr in die Technologieentwicklung einbringen. Interessanter Vortrag (siehe auch: www.responsible-industry.eu). Keine Notizen zu den weiteren Vorträgen.

Der vierte Tag beginnt mit dem Vortrag von Michele Rapoport: Choosing and Acting Freely in Smart, Persuasive Environments. Seine Voraussetzung: die entsprechenden Systeme werden freiwillig eingesetzt (Hinweis: in Stanford gibt es ein Institut für persuasive technology). Thema führt in die nudging-Debatte. Ist eine solche Technologie eine Art „selbstgewähltes Gewissen“ (oder auch Rousseau: man unterwirft sich dem eigenen Gesetz)? Hinweis auf die Unterscheidung von Berlin zu positiver und negativer Freiheit. Wichtige Beobachtung: Ethik diskutiert meist Dilemmas, die aber durch solche Technologien kaum berührt werden. In ein ähnliches Gebiet führt der Vortrag von James Williams: What Is a 'Persuasive' Technology? Hinweis auf die enorme Menge an Ablenkungen, die moderne Technologie heute bietet – Aufmerksamkeit wird knapp. Es gibt viele Fallen: gibt man z.B. User die Möglichkeit, Werbung auf YouTube zu unterbrechen, schauen sie de fakto aufmerksamer die Werbung an – auch ein sehr interessanter Vortrag, lies das Paper.

Mariarosaria Taddeo spricht dann zu: The Responsibilities of Online Service Providers in Information Societies. OSP haben heute die Rolle von Gatekeepern inne und sie handeln meist ohne Rechtsrahmen. Tobias Matzner spricht dann zu: What Does Ethics do in Science and Engineering Research Projects? An Ethical Selfreflection in the Case of Security Research. Der Vortrag beleuchtet ihre Erfahrungen als Ethiker in Technologie-Projekten. Sie unterscheiden drei Fälle (nebst den „Weisswasch-Ethikern“, was niemand sein will). Einfacher, instrumenteller Einbezug: im Wesentlichen ein IRB. Komplex-instrumentelle Ethik: Man ist Teil der Entscheidungsprozesse. Nicht-instrumentelle Ethik: Man fügt Unsicherheit hinzu, nicht Orientierung. Ein wichtiger Gedanke: wenn man nur ein „bisschen“ zur Verbesserung von Technologie beiträgt, macht man sich gewissermassen schuldig, dass ein immer noch schlechtes System das Siegel „Ethik“ erhält. Weitere Probleme: man verliert die kritische Distanz, Einbezug hat ein Effekt auf öffentliche Wahrnehmung des Projektes. Danach kommt mein Vortrag.

Im letzten Vortrag spricht Katleen Gabriels über: ‘I keep a close watch on this child of mine’: A Moral Critique of Other-tracking Apps. Hier geht es um die Nutzung von Überwachungstechnologie durch normale User (Partner oder Kinder als Objekte der Überwachung). Wichtiger Hinweis: es gilt heute manchmal schon als verdächtig, wenn man keine digitale Spuren hat („man hat etwas zu verbergen“). Moralische Probleme solcher Formen von Überwachung: Förderung einer Kultur der Angst, Gefahr wird „default setting“; das Unbehagen nimmt zu statt ab (man weiss, was passiert, kann aber aus der Distanz nicht handeln); man verneint die Fähigkeit des Kindes zur Eigenständigkeit, man unterminiert die Autonomie des Kindes, man verwechselt Fürsorge mit Überwachung.

 


17.-19. Juni 2015 – Paris: Neuroethics Network Meeting

Ich besuchte nur die beiden ersten Tage. Den ersten Talk verpasste ich aufgrund des HBP-Meetings, das etwas länger gedauert hat. Adrian Carter spricht zuerst über Nebenwirkungen der Dopamin-Agonisten-Therapie bei Parkinson: 20% der Betroffenen haben Impulskontroll-Störungen, insbesondere auch Hypersexualität (deutlich mehr als bei DBS). Beispiel: Terry Martin Fall von 2011, er entwickelte Interesse für Kinderpornografie, das in klarer Korrelation zur Medikamentengabe (Krankheit begann 2005, Medikamentengabe begann 2006, danach entwickelte er Hypersexualität: 165 Prostituierte besucht, 150‘000 US$ ausgegeben; 2010 DBS, Problem verschwand) – er wurde entsprechend vor Gericht freigesprochen. Es folgt eine Debatte, unter welchen Umständen man solches Verhalten den Medikamenten zuordnen kann: zeitliche Assoziierung, Abhängigkeit von Dosierung, biologisch plausible Erklärung, andere Erklärungen ausschliessen. Siehe unter anderen Auberman Carter et al 2011, Weintraub et al. 2010. In der Debatte wird dann auch diskutiert: Analogie zu Drogen? Dort macht man ja die Assoziierung von kriminellem Verhaltens zur Substanz weniger oft (u.a. wohl auch, weil im Fall der Agonisten ja ein Grund für die Einnahme vorliegt: die Krankheit – allerdings machen viele Drogenkonsumenten auch eine Form von Selbstmedikation. Eine Frage: wenn eine Tendenz gegeben ist, auf Medikamentenkonsum mit kriminellem Verhalten zu reagieren, inwieweit ist man dafür verantwortlich? Es folgte dann der Film (keine Notizen dazu).

John Harris spricht am Folgetag zum Titel: Is there anything unique about the ethical questions raised by neuroscience? Allerdings spricht er kaum zu diesem Thema, sondern er spricht über human nature generell. Danach folgte dann die Session, bei der ich auch dabei war, zusammen mit Andrew Fenton und Frederic Gilbert, moderiert von Paul Ford (Thema: How Should We Address the Special Challenges of Using Neuroscience-based Therapies in the Developing Brains of Children and Adolescents?).

Interessant war dann die Session zur Frage: Biomarkers create a new category of patients, those who are clinically healthy, but show evidence of a pathological process that may or may not become a disease.  How can we best care for these patients? Diskutiert wurde dann vorab zu bekannten Fällen wie Huntington Disease (interessanter wäre gewesen: wenn ganz neue Krankheitskategorien geschaffen werden).

Yves Agid spricht dann zu den psychosozialen Auswirkungen von DBS basierend auf ihren reichen Erfahrungen (Thema: The efficacy of DBS in treating pathologies may often result in psychological and social maladaptation in ways unanticipated by patient and family (whether these are caused by a new situation or by the stimulation itself is as yet undetermined).  How should the resulting ethical issues be addressed?). Man beobachtet unter anderem: Verlust des Selbst (man denkt, man ist jemand anders geworden), Verlust des Lebenssinns (Kampf gegen die Krankheit), Gefühl, man werde fremdbestimmt. Sie beobachten auch: die von ihnen verendeten psychologischen Tests reflektieren die Veränderungen nicht.

Danach musste ich dann gehen.


11.-12. Juni 2015 – Brocher Foundation Genf – Future Neuroscience and the HBP

Ein Workshop zur Frage, wie man eine Gemeinschaft von Neurowissenschaftlern bezüglich des Austauschs von Daten und Modellen schafft. Nicholas Rose verweist in der Einführung auf ein Paper aus dem Jahr 2000, das auf die zahlreichen Probleme des Austauschs von Daten hinweist. Der EC-Report zum HBP verweist auf die Notwendigkeit, eine Infrastruktur zum Austausch von Daten zu generieren und auf die Wichtigkeit einer Pluralität von Modellen. Hier spielen auch soziale Aspekte hinein bis hin zu verschiedenen epistemiologial cultures.Andrew Davison verweist seinerseits auf die „Fragmentierung“ der Neurosciences (wie eigentlich misst man das genau?), die angegangen werden muss.

Titel der ersten zwei Sessions vom Donnerstag: From experiments to data repositories. Leslie Smith stellt das CARMEN-Projekt vor, das 2006 gestartet war und den Austausch elektrophysiologischer Daten erlauben soll. Die Finanzierung des Projekts läuft nun aus und es stellt sich die Frage: wie weiter? Eine Verknüpfung mit dem HBP wäre eine Option. Grundprobleme, die sich beim Aufbau von CARMEN stellen: usability ist Trumpf! Man muss Daten einfach raufladen und einfach finden können – sonst bringt es nichts. Man muss Training und Tutorials einen grossen Stellenwert geben. Und man muss eine langfristige Finanzierungsperspektive haben – mehr als 10 Jahre. Catherine Zwalen stellt die Neuroinformatics Platform des HBP vor. Ein Ziel ist es auch, Daten zitierbar zu machen. Mögliche Meta-Daten-elemente: räumliche und zeitliche Skala, Ort (im Gehirn), Methode, Spezies, Krankheit. Provenance tracking ist ein Kernelement – ihr entsprechendes Modell enthält drei Grundelemente (activity, agent, entity – letzteres umfasst die digitale Repräsentation und den ontology term). Sie sehen einen vierstufigen Lebenszyklus von Daten: Aktiv (unterstützt von high performance computing, weniger aktiv, historisch (online-Datenbank), archiviert (offline Datenbank). Martin Telefont vom HBP spricht über data integration (derzeit 66 Labs als Datenproduzenten und 51 Modellier-Gruppen als Daten-Konsumenten). Sehr viele Dinge können verschieden sein: workflow in den Labs, Datenformate, etc. Kuration der Daten ist zentral, man wird nicht alles automatisieren können. Dies stellt die Frage, welche Rolle Kuratoren eigentlich haben. Sind das auch Wissenschaftler? Shreejoy Tripathy spricht dann über die Site neuroElectro.org. Diese will elektrophysiologische Daten aus Paper minen und zugänglich machen (mittels einfachen text mining Algorithmen). Suche das Paper von Tripathy et al. 2015 in J Neurophysiol, das gibt Hinweise auf methodologische Variabilität. Ich denke, es braucht ein Reputations-System für Daten-Repositories (für die uploader wie auch für die Daten selbst).

In der zweiten Session vom Donnerstag spricht zuerst Thomas Wachter zu G-Node, einer Neuroinformatik und Data Sharing Plattform. Interessanter Ansatz: zuerst einmal geht es darum, Daten mit einem selbst zu teilen (also: sicherzustellen, dass man die eigenen Daten noch nach einigen Jahren versteht), danach interner Austausch im Lab und mit collaborators, erst dann genereller Austausch. Metadaten sind zentral, nicht nur die „hard metadata“, sondern auch „soft metadata“ (also z.B. bezüglich der Fragestellung der Studie).Sonja Grün spricht dann darüber, wie man Reproduzierbarkeit vion Daten sicherstellen kann – ein speziell schwieriges Problem in den Neurowissenschaften angesichts der Vielzahl freier Parameter und der komplexen Experimente. Paul Tiesinga spricht schliesslich über „predictive neuroscience“ – wie man gewissermassen fehlende Daten aus bestehenden Daten bestimmen kann – beispielsweise die netzwerk-Struktur.

Der erste Block des zweiten Tags ist den Soziologen gewidmet. Christine Aicardi spricht über Interdisziplinarität und Kollaboration. Hierzu gibt es schon viel Sozialforschung (sie geht nicht auf die diversen Facetten von „Interdisziplinarität“ ein). Es gibt zwei Kulturen von Interdisziplinarität: bottom-up (die gelebte Interdisziplinarität) und top-down (jene, die gewissermassen institutionell vorgegeben wird) – beide müssen zusammenkommen, damit es funktionieren kann. Punkte, die man klären muss: gemeinsame Begrifflichkeiten entwickeln, Konflikte akzeptieren, „Brückenwissenschaftler“ aufbauen (nicht einfach, da zeitaufwendig, schlecht fürs CV, inadäquate Evaluationsstandards), vertrauensbildende Massnahmen. Niccoló Tempini bringt dann etwas mehr Soziologie-Jargon (viele Hinweise finden sich auf: www.datastudies.eu). Wichtige Fragen beim Aufbau von Plattformen: Arbeitsteilung, Kuration muss sichergestellt sein, wie kommt man zu Design-Entscheidungen? Wie belohnt man Einträge? Was zählt eigentlich als Forschung, was nicht? Wichtig auch: Plattformen bringen auch Standardisierung (beisst sich das mit der Pluralität von Modellen?). Dennis Kipler spricht dann zu den rechtlichen Grundlagen von data processing for research purposes in der EU. Relevant sind Artikel 7 (respect for privacy) und Artikel 8 (protection of personal data). Immer noch aktuell ist die Data protection Directive 95/46/EC (verlangt entsprechende Umsetzung in nationale Gesetze), in Arbeit ist die General Data Protection Regulation, die dann die nationalen Gesetze ablösen soll. Personal data ist sehr generell definiert (any information on a data subject). Generell ist “data processing” offenbar verboten, ausser, es sind eine Reihe von Bedingungen erfüllt (u.a.: Zustimmung, public interests, oder der so genannte „balancing test“, d.h. Abwägung im Einzelfall mit anderen gleichgewichteten Werten). Es folgen auch einige Bemerkungen zum data processing in der Wissenschaft (hier werden die Bedingungen etwas abgeschwächt).

Die zweite Session vom Freitag bringt dann diverse Beispiele von Modellen, die Gegenstand von Sharing werden können. Srikanth Ramaswamy erklärt im Detail die data driven Rekonstruktion von microcircuits (passierte bereits im Blue Brain project). Marcel Oberländer präsentiert interessante Studien, wie man ein brain-wide model eines perceptual decision task erstellt. Marc-Oliver Gewaltig stellt vor, wie man ein whole brain model (der Maus) erstellen will. Marmaduke Woodman schliesslich stellt The Virtual Brain vor – hier will man offenbar individuelle Patientengehirne modellieren (basierend auf der mittels DTI erfassten individuellen Konnektivität), um z.B. Epilepsieherde zu lokalisieren oder Therapien zu testen (wenn ich das richtig verstanden habe). Bemerkung: es braucht 1-2 Jahre, bis die Leute sich ins Thema der Modellierung eingearbeitet haben.

Die Nachmittags-Session habe ich dann frühzeitig verlassen müssen.


27.-28. Mai 2015 – Hamburg: IFIP-SEC 2015

Ich besuchte zwei Tage der IFIP-SEC-Konferenz anlässlich eines Treffens zur Vorbereitung des Cybersecurity-Konsortiums. Der Mittwoch begann mit dem Vortrag von Miroslaw Kutylowski, der eine Übersicht über privacy-preserving Authentifizierung gibt – relevant z.B. bei Pässen oder Zugangskontrollen. Grundproblem ist, dass klassisches Security-Printing immer schwieriger wird, weil die modernen Techniken entsprechende Fälschungen erleichtern und zudem die fälschungssicheren Merkmale immer schwieriger zu erkennen sind von Nichtspezialisten. Deshalb gibt es immer mehr Pässe mit Chips, die RDF-lesbar sind. Das aber wiederum erleichtert illegales Lesen der Pässe. Es folgt dann eine  Übersicht über Sicherheitsmöglichkeiten wie BAC (basic access control) und AA (active authentification, z.B. bei Flughäfen). Letzteres sichert gegen Klonen von Identitäten, was aber die Privacy prinzipiell verletzt (im Sinn von: Die Anwesenheit von Person X am Ort A ist eindeutig nachweisbar). ES folgt eine ausführliche Beschreibung der Protokolle von EAC (extended access control), was z.B. hochaufgelöste bibliometrische Daten beinhaltet wie z.B. Passfoto oder Fingerabdrücke auf dem Chip – diese Daten werden dann aber auch zugänglich für malicious processing. EAC umfasst sowohl chip authentification und terminal authentification, was dann am Beispiel der deutschen ID-Karte erläutert wird. Ein weiteres Konzept, das erlätert wird, ist restricted authentification – die Idee, dass Authentifizierung an bestimmte soziale Sphären gebunden ist (domainspezifische Pseudonyme) und man die entsprechenden Daten nicht mergen kann (was z.B. Österreich anstrebt). Die unlinkability ist aber technisch sehr aufwendig zu realisieren.

Ich besuchte danach die Session von WISE (Workshop on Information Security Management) – z.T. erscheinen die dort präsentierten empirischen Studien recht handgestrickt. Matt Bishop präsentiert ein Ausbildungsprogramm an einer US-Universität, das sehr industrienahe Projekte mit den Studierenden umsetzt. Wichtiger Fokus ist auf data curation, so dass Projekte auch übergeben und von Dritten weitergeführt werden können – sicher etwas wichtiges, das Informatiker generell lernen sollten. Es stellt sich allerdings die Frage, ob in einem solchen framework freie Forschung überhaupt noch möglich ist. Roberto Gallo spricht dann über so genannte Assurance Cases als didaktische Tools. Hinweis, dass 70% aller Fehler in Security-Systemen nicht Programmierfehler in der Software sind, sondern Fehler auf der Ebene der Architektur der Systeme. Es wird 2017 geschätzte 5 Millionen ICT-Security-Leute brauchen weltweit. In assurance cases treten gewissermassen zwei Gruppen gegeneinander an, die versuchen, das System der jeweils anderen Gruppe zu hacken. Auffallend ist die “Beratersprache“, die offenbar schon tief in das akademische System eingesickert ist. Chien-Chung Shen stellt dann ein eindrückliches Programm zur Förderung von Cybersecurity Awareness vor (bzw. Situation Awareness: erkennen, welche Probleme anstehen – schwierig angesichts der Geschwindigkeit der Prozesse, unklarer Informationslage sowie grosser Datenmenge bei fehlender Aggregierung und häufigen Fehlalarmen). Hier sollte man nachfragen, wenn man mehr über dieses Thema wissen will. Erik Moore stellt dann ein Beispiel gemeinsamer Trainings ziviler und militärischer Stellen vor. Auffallend ist, dass bei allen US-Projekten das Verteidigungsministerium involviert ist.

In der zweiten WISE Session sprach zuerst Lynette Drevin über den ethical content eines bestimmten Ausbildungsmoduls für ICT-Security – Fragestellungen und Hypothese des empirischen Projekts wurden nicht wirklich klar… Natalia Miloslavskaya stellte dann ein Assessment Instrument vor, mit der man die Kompetenzen von ICT-Security-Leuten messen kann. In einer anderen Session sprach schliesslich Paul Lajoie-Mazenc über privacy-preserving Reputationssysteme. Reputationssysteme sind grundsätzlich interessant (Mechanismen, die man untersuchen kann: Verhindern von schlechten Ratings, Diskriminierung aufgrund von Ratings, falsche Ratings). Sie stellen dann ein Protokoll vor, das privacy-preserving und effizientes Rating erlaubt. In der letzten Session hatten wir dann unser Treffen.

Am zweiten Tag war ich dann in der Security Management Session. Lena Connolly stellte eine qualitative Studie vor zum Thema organisational cultures (auch in Abhängigkeit „national cultures“, Vergleich USA-Irland). Es war offenbar schwierig, Probanden für die Interviews zu finden. Bin unsicher, ob sich die Resultate verallgemeinern lassen. Fredrik Karlsson und Karin Hedström sprachen dann zur Frage, welchen Effekt Security Policies auf das Verhalten der Leute haben: einen geringen (Bernd Stahl hat dazu offenbar auch gearbeitet).


30.-31. März 2015 – Mainz: The Human Sciences after the Decade of the Brain

Den ersten Vortrag von Sabine Maasen haben ich verpasst, da der Zug erst gegen 11 Uhr eingetroffen ist. Es sind mehrere Vorträge kurzfristig ausgefallen. In der Session über „Philosophy of Science and Neuroscience“ sprach dann zuerst Michael Jungert über „Neurophilosophy or Philosophy of Neuroscience“. Letzteres scheint für ihn die eher klassische bzw. kritische philosophische Auseinandersetzung mit neurowissenschaftlichen Thesen zu betreffen. Er nennt dann eher alte Thesen von Leuten wie Crick, Edelman, Damasio betr. Bewusstsein und dergleichen und die eher plakativen Thesen, wonach sich nun gewissermassen die Neurowissenschaftler den philosophischen Fragen nach Bewusstsein etc. stellen sollten. Neuropilosophie (z.B. im Sinn von Churchland) ist dann nach seinem Verständnis eher der Versuch, die Philosophie mit neurowissenschaftlichen Erkenntnissen zu ergänzen, soweit das Sinn macht. Die Rolle der Philosophie ist für ihn aber weiterhin, theoretische Implikationen neurowissenschaftlicher Erkenntnisse, zentrale Konzepte und Plausibilität gewisser Schlüsse zu prüfen. Er erläutert dann am Beispiel der Gedächtnisforschung, wie das in etwa geschehen kann.

Roberto Fugamalli spricht dann zu „Against neuroscience imperialism“ Unter „imperialism versteht er die Anwendung von Methoden und Erkenntnissen einer Disziplin in anderen Disziplinen. Er verneint nicht, dass ein solcher „Imperialismus“ erfolgreich sein kann (der Begriff ist dennoch negativ gefärbt, in der Debatte aber offenbar so eingeführt). Anhand eines Beispiels aus der Neuroökonomie erläutert er dann, warum dieser „Imperialismus“ nicht funktioniert. In der Debatte wird dann aber darauf hingewiesen, dass ein solcher „Imperialismus“ historische gesehen zuweilen sehr erfolgreich gewesen ist (z.B. Physiologie, Chemie) – und selbst wenn er nicht erfolgreich ist, trägt er dazu bei, dass eine Disziplin ihre Ziele und Begriffe schärft. Den Vortrag von Rui Vieira da Cunha habe ich dann nicht gross verstanden, zu breit war das thematische Spektrum con „self, free will and responsibility“.

Sehr interessant war dann der Vortrag von Paul Hoyningen-Huene. Er beschreibt gewissermassen eine „Auftragsarbeit“ von Neuroökonomen: Warum nehmen uns die klassischen Ökonomen nicht ernst (die Neuroökonomen bringen keine Papers in den Top-5-Journals der klassischen Ökonomie unter). Klärung: es geht um Neuroökonomen, nicht um die behavioral economists (Kahnemann etc.) , die erfolgreich ihre Sicht der Dinge in die klassische Ökonomie einbringen konnten. Er untersucht das Problem anhand von drei Ebenen: Die Ebene des Verhaltens (insbesondere bezüglich choices; empirisch klar zugänglich), die Ebene M des Mentalen bzw. der mathematischen Konstrukte, die dieses Mentale erfassen (z.B. utilities, preferences) – und eben die neuronale Ebene N, die gewissermassen M realisiert (der Gegenstand der Neuroökonomen). Klassische Ökonomen interessieren sich für Voraussagen von Verhalten, nicht für Erklärungen. Aus diesem Grund ist man auch nicht daran interessiert, wie genau N für M sorgt, solange das nicht zu neuen, interessanten Voraussagen führt. Und ein solches Verständnis kann, muss aber nicht nötig sein. Die moderne Genetik ist ein Beispiel, wo die Entschlüsselung der materiellen Basis der genetischen Information zu neuen, interessanten Voraussagen geführt hat – in der klassischen Gravitationstheorie aber war dies überhaupt nicht nötig (man musste die Natur der Gravitation nicht weiter untersuchen, man konnte sie einfach als Faktum hinnehmen). Gemäss gewissen klassische Ökonomen ist die Neuroökonomie notwendigerweise unnötig für die Ökonomie, weil diese gar keine physiologischen Voraussagen macht. Dieses „conceptual distinction“ Argument ist aber möglicherweise ein Pseudoargument, wie Reduktionismus/Emergenz-Debatte hat das oft genug gezeigt. Die weniger radikale Kritik sagt, dass kausale Erklärungen für die klassische Ökonomie schlicht nicht interessant sind. Neuroökonomen wiederum sind mehr klassische Naturwissenschaftler, die sich für Erklärungen interessieren und bei denen Voraussagen nur ein Mittel zum Zweck sind (um Modelle zu prüfen). So ergeben sich folgende Strategien für Neuroökonomen: Erstens: sie wollen zum klassischen Verständnis von Ökonomie beitragen. Dann müssen sie aber in der Lage sein, neue, interessante Vorhersagen zu machen – sonst geraten sie in die Rolle der „Inspiratoren“ (die hat weniger Status). Oder sie wollen die klassische Ökonomie kritisieren: Dann müssen sie Anomalien der klassischen Ökonomie sammeln und plausibel machen, dass diese relevant sind und sie müssen Erklärungen für diese Anomalien sammeln. Oder schliesslich sie kümmern sich gar nicht um diese Kontroverse. Dann müssen sie in anderen Top-Journals wie Nature und Science publizieren, um zu ihren Stellen zu kommen. Nach dem Vortrag von Hoyningen-Huene gab es nur noch einen Vortrag in einer Session – habe dazu keine Notizen gemacht.

Der zweite Tag begann mit einem Vortrag von Scott Vrecko. Er hat untersucht, wie genau dieselbe Substanz (Amphetaminverbindung) in der Drogenforschung als Crystal Meth verteufelt wird und in der ADHD-Forschung als Medikament untersucht wird und dabei auch in den Enhancement-Kontext gestellt worden ist. Interessant ist insbesondere, dass er Konsumenten beider Gruppen befragt hat, warum sie die Substanzen nehmen. Die Beschreibungen ergänzen sich weitgehend: Die Substanz dient dazu „second order“ Bedürfnisse zu erfüllen, z.B. besser Lernen oder den Willen aufbringen, an eine Party zu gehen, um dort z.B. Menschen kennenzulernen. Nicht das Drogenerlebnis an sich steht im Zentrum, sondern das, zu was die Droge befähigt. Klassische Erklärungen der Drogenforschung (z.B. Bozarth 1994), wonach Drogen zur Erschütterung des „natural pleasure system“ führen würden, stellen die Sachlage falsch dar.

Nora Heinzelmann spricht dann kritisch zur Arbeit von Joshua Greene, der anhand seiner Arbeiten den Utilitarismus als „universale Ethik“ etablieren will, die über die „tribal ethics“ hinausgeht. Sie diskutiert zwei kritische Argumente: Zum einen, dass die reverse inference von Greene methodisch unangemessen ist. Zum anderen, dass er eine Form eines is-ought-Fehlschlusses macht. Es gibt gewiss noch weitere Gegenargumente (z.B. die Behauptung, der Utilitarismus komme ohne Emotionen aus, das dürfte ein Artefakt der Versuchsanordnung sein). Nadia El Eter spricht dann in ihrem Vortrag darüber, dass sich die Neuroethik nicht auf die is-ought-Thematik einschiessen sollte, diese hat auch einen etwas dogmatischen Charakter. Dann wollte ich zum Vortrag von Oonagh Hayes wechseln – da dort aber ein Vortrag ausfiel, sah ich nur noch den Schluss (sie sprach über DBS). Keine Notizen machte ich zum Vortrag von Melissa Littlefield. Danach kam ich und schliesslich der Vortrag von Jon Leefmann: sehr interessante Datenbank, die sie da haben: rund 4000 Neuroethik-Paper. Sa sollte man mal prüfen, ob ein Zugang möglich ist.

Textversion für blinde und sehbehinderte Personen © 2018 goleon* websolutions gmbh