Textversion für blinde und sehbehinderte Personen sitemap
Home Textraum Hochzeit Arbeit Forschung encyclog

03.-05. November 2014: European Conference on Social Intelligence

Wir haben an dieser Konferenz unsere interllectual humility Studie vorgestellt (am 4.11.) – die Veranstaltungen des 5.11. konnte ich leider nicht besuchen, da mein Portmonee abhandengekommen ist.

Christian List gab den ersten Keynote-Vortrag zu „reason-based rationalization“. Was für einen Philosophen seltsam klingt (wie sonst soll rationalization funktionieren wenn nicht mit Gründen?), erschliesst sich, wenn der Kontext klar wird. Es geht um das Entscheidungsverhalten innerhalb der Ökonomie und um die hierbei verwendete choice function, die vom Raum aller möglicher Optionen auf die tatsächlich gewählten Optionen abbildet. Klassisch läuft das über die Idee der Präferenzen, man wählt also die am ehesten bevorzugte Option (u.a. relevant ist hier das Richter-Theorem von 1971). Der revealed preferences approach ist vom Grundsatz her behavioristisch, d.h. man geht von den tatsächlich beobachteten Auswahlen aus und man vermeidet es, den agents innere Zustände zuzuschreiben. Hierzu gibt es die wohlbekannten Probleme der „violation of rationality“ (framing Effekte, nudging etc.) – das „problem of imperfect rationalism“ – und auch das Problem, dass manche Entscheidungen (z.B. striktes norm following) „überrational“ erscheinen – das „problem of sophisticated rationalism“. Er will eine ökonomische Theorie liefern, die solche Aspekte in der Entscheidungsfunktion mit berücksichtigt, indem Objekte als „bundles of properties“ verstanden werden, und die Präferenz-Relation über diese Bündel läuft. Er unterscheidet drei Arten von Eigenschaften: Objekt-Eigenschaften, relationale Eigenschaften (zwischen den Objekten) und Kontext-Eigenschaften – letztere haben die Untergruppen „context variant motivation“ (hier ist man dann im Umfeld der unbewusst beeinflussenden Aspekte und der so genannten bounded rationality) und „context regarding motivations“ (das betrifft dann die sophisticated rationality). Zu dieser Idee gibt es einen formalen Apparat, der hier nicht weiter ausgeführt wird (siehe dazu die Paper von List).

In der nachfolgenden Session sprach zuerst Huib Aldewereld zu Social Responsibility in Software Design. Ihm geht es um die Frage, wie man das Prinzip des value sensitive design in die konkreten Abläufe der Programmierung von Software operationalisieren kann. Das vorgestellte Modell ist noch sehr allgemein und widerspiegelt die Prozesslogik des Software Designs. Die wichtige Frage ist, wie macht man Werte „traceable“ – also rückvollziehbar. Pompeu Casanovas sprach dann zu “Open Source Intelligence, Open Social Intelligence and Privacy by Design” – ein sehr komplizierter Vortrag, konsultiere das Paper. Der Vortrag von Javed Ahmed zu “Social Interaction Based Audience Segregation for Online Social Networks” war methodisch interessant, konsultiere das Paper. Der Vortrag von Nardine Osman über ihre “Roadmap for Self-Evolving Communities” war dann doch sehr allgemein. Pompeu Casanovas sprach dann in seinem zweiten Vortrag zu „Fairness, Trust and Security in Online Dispute Resolution“ – offenbar werden immer mehr (teil-)automatisierte Systeme eingesetzt, um z.B. Beschwerden von Kunden zu bearbeiten, was juristische Fragen aufwirft. Man erhält den Eindruck, dass hier noch viele Fragen offen sind. Der dritte Vortrag der zweiten Session entfällt. Das Panel habe ich dann nicht mehr besucht.

Der zweite Tag beginnt mit dem Keynote-Vortrag von Mel Slater – ein sehr interessanter Forscher. Er spricht zu „Perceptual and Behavioral Consequences of Virtual Environments“. Seit nunmehr rund 25 Jahren wir virtual reality in der Forschung eingesetzt. Man weiss heute, dass Versuchspersonen in einer VR-Umgebung dazu neigen, sich realistisch zu verhalten, obgleich sie wissen, dass die Umgebung nicht realistisch ist (gewissen Teilen des Wahrnehmungsapparates ist diese Einsicht nicht zugänglich). Es gibt on ihm dazu ein Review Paper in Nature Reviews: Neuroscience von 2005. Diese Forschung stellt zunehmend interessante ethische Fragen, denn je mehr man weiss, wie Leute von VR beeinflusst werden, desto schwieriger ist die Rechtfertigung, wonach VR problemlos für die Leute sei. Eine Reihe von funktionierenden Illusionen sind: precense/place illusion (die Leute denken, sie seien an dem durch VR vorgegebenen Ort), plausibility illusion (die Leute denken, die in VR präsentierten Ereignisse seien real). Man kann z.B. den gut untersuchten bystander effect reproduzieren. Interessant sind dann die diversen Experimente zur body ownership illusion (solche Phänomene waren schon vorher bekannt, z.B. rubber hand illusion, Pinocchio illusion). Man kann mittels VR auf diese Weise Versuchspersonen in andere Körper versetzen (vorgestellt wird eine laufende Studie, in der die Versuchspersonen in ihren Kinderkörperversetzt werden) – und das hat dann einen Einfluss auf die Wahrnehmung der Umgebung. In einem interessanten Experiment gelang es gewissermassen auch, den Leuten plausibel zu machen, sie hätten Sprachhandlungen gemacht, die de fakto nur ihr Avatar gemacht hatte. Dazu gibt es ein Review Paper in Frontiers in Integrative Neuroscience (finde ich allerdings nicht…).

Ich besuchte danach zwei Sessions (nebst dem eigenen Vortrag). NetLogo wird in dieser community noch recht oft gebraucht.


30. Oktober 2014: Universität Zürich

Vortrag von Scott Desposito über ethische Fragen in der heutigen Politologie, wo zunehmend Experimente durchgeführt werden. Traditionell waren dies vorab Laborexperimente wie z.B. das Ultimatumsspiel – „Hauptproblem“ war es, dass die Probanden gelangweilt wurden. Bislang herrschte deshalb die Ansicht vor, dass es in diesem Bereich keine relevanten ethischen Fragen gebe. Eine Übersichtsarbeit, welche die Arbeit von 30 renommierten Autoren untersucht hat, die insgesamt mit rund 104‘000 Personen Experimente durchgeführt haben, kam auf einen einzigen relevanten Zwischenfall. Jetzt aber gibt es sehr viel mehr und neue Arten von Experimenten, die zudem nicht mehr im Labor stattfinden, sondern auf die wirkliche Welt einwirken. Einige Beispiele: Wechsle randomisiert die Botschaften in politischem Propagandamaterial, um deren Effekt zu messen. Zahle Probanden dafür, absichtlich Unfälle zu machen und danach die Polizisten zu bestechen (in Ländern, in denen das üblich ist). Randomisiere die Publikation von Anwesenheitslisten von Parlamentariern in autoritären Staaten. Fragen die sich hier stellen sind: Manchmal sind die Manipulationen illegal gemäss dem Recht im jeweiligen Staat (z.B. kann man in Brasilien die Probanden nicht bezahlen). Personen aus dem Staat X führen Experimente im Staat Y durch. Man lässt NGOs die Experimente durchführen (wer ist die handelnde Person). Was wäre, wenn das Experiment de fakto eine Wahl entscheidet (in knappen Situationen) – ein Paradebeispiel dafür ist das kürzlich in Montana bekanntgewordene Experiment, das für kontroversen sorgte (entsprechende Experimente wurden aber bereits in zahlreichen Schwellenländern durchgeführt). Gemäss Desposito sind folgende Aspekte die „hard problems“: der mögliche „real world impact“ solcher Experimente; die Einholung der informierten Zustimmung und das damit verknüpfte Problem der deception (bzw. Verdecken der Identität der Institution, die das Experiment durchführt).


21.-22. Oktober 2014: Workshop “Technology-Mediated Tragic Decisions”

Hierzu gibt es einen separaten, internen Workshop-Bericht.


3.-4. Oktober 2014: Universität Tübingen

Hier eine Zusammenfassung aller Vorträge der Konferenz „Debunking Arguments in Philosophy“ – nicht alle Vorträge habe ich gleichermassen detailliert aufgeschrieben. Es beginnt Joseph Walsh mit seinem Vortrag zu „Ho to resist global evolutionary debunking arguments“ (EDA). Er unterscheidet zwischen spezifischem debunking (z.B. Singer und bestimmte moralische Iintuitionen) und globalem debunking, der auf die Metaethik zielt und z.B. anti-realistisch ist. Er glaubt, dass globale EDA scheitern, weil diese Unterschiede in den phylogenetischen Prozessen ignorieren (d.h.: verschiedene moralische Intuitionen basieren auf verschiedenen evolutionären Prozessen; seine Beispiele sind u.a. disgust-based moralische Intuitionen und solche, die auf soziale Intelligenz aufbauen). Der Punkt scheint zu sein, dass die gleichen evolutionären Prozesse sowohl moralische wie auch unmoralische Konsequenzen haben können (z.B. Förderung von Betrug). Letztlich habe ich das Argument aber nicht verstanden (man müsste wohl das Paper lesen, das daraus resultiert).

Carel van Schaik präsentiert seine Überlegungen, die er bereits in unserem Buch „Empirically Informed Ethics“ ausgebreitet hat. Ursprung der menschlichen Moral liegt in einem typischen Lebensstil der frühen Menschen: cooperative breeding & cooperative hunting. Kooperation ist auf allen Zeitskalen vorhanden: Tage (man erhält, wenn man kein Jagdglück hatte), Wochen (man wird unterstützt, wenn man krank ist) und Jahre (man unterstützt Familien mit Kindern). Reputation ist deshalb der Schlüssel. Auch im Spezies-Vergleich ist das Ausmass von cooperative breeding der beste Faktor, der Prosozialität erklärt. Es folgen viele Erklärungen (siehe dazu seinen Buchbeitrag). Ein kernpunkt: Man muss erwarten, dass die inhaltliche Ausgestaltung von Moral Spezies-spezifisch ist.

Matthew Braddock hat ein Handout abgegeben, ebenso Silvan Wittwer (deshalb keine Notizen, Handouts sind in der Ablage) – diese Vorträge waren sehr technisch. Beim Abendvortrag von Thomas Grundmann habe ich keine Notizen gemacht (war interessant, sollte das Paper dazu organisieren).

Am zweiten Tag begann Hanno Sauer zum Thema „Educated Moral Intuitions“. Er machte eine interessante Analyse zum social intuist model von Jonathan Haidt. Er stellt einige interessante Experimente vor (prüfe: Strandberg et al 2012; Uhlmann et al. 2009). Auch hier sollte ich das Paper organisieren, sehr interessante Analysen. Danach folgte mein Vortrag.

Peter Königs sprach dann zu „From moral error theory to practical error theory“. Seine Ausgangslage ist die Theorie von Joyce (morality as a product of evolution) und seine Argumentation besagt im Wesentlichen: will man die „moral error theory“ akzeptieren, so muss man auch eine „practical error theory“ akzeptieren. Auch das war ein recht technischer Vortrag (müsste das Paper haben, um das Argument vollständig zu verstehen).

Christian Illies gab einen interessanten Vortrag zur Rolle von Intuitionen (why metaethical objectivism is compatible with evolutionary explanations of moral judgments) . Insbesondere interessant ist: die rational faculty hat ihrerseits eine evolutionäre Geschichte. Was bedeutet das für ein „debunking“ von EDA? Organisiere das Paper zu diesem Thema. Bahadir Eker lieferte dann einen sehr technischen Vortrag zum Thema „Debunking a quasi-bunk: Street’s attack on quasi-realism“. Mir war insbesondere nicht klar, was denn „quasi-realismus“ nun genau für eine Position sein soll.

Spannend war schliesslich der Vortrag von Thomas Sattig „Debunking and Ontology“. Er untersuchte die Frage, ob man mit metaphysischen Argumenten die Glaubwürdigkeit von basalen Sinneseindrücke sogar unterminieren kann – man kann, auch wenn das Argument konstruiert wirkt. Zum Beispiel: wenn ein Bild zwei Tassen zeigt, sind das zwei oder drei Gegenstände (der dritte Gegenstand wäre die TasseTasse, die Vereinigung der beiden Tassen). Einige interessante Überlegungen, die man mit dem Problem der Theorieabhängigkeit von Beobachtungen in Bezug setzen könnte. Seine Lösung des Problems ist eine Art Dualismus: Objekte haben immer auch einen nichtmateriellen Teil.


29. September bis 1. Oktober 2014: HBP Summit Heidelberg

Die Notizen zu den internen ELSA-Sitzungen werden hier nicht aufgeführt. Am 29. September wurden diverse andere internationale Brain-Grossprojekte vorgestellt. Greg Farber sprach zur NIH BRAIN Initiative, diese wurde im April 2013 lanciert mit einer Arbeitsgruppe, die mögliche Themen identifizierte. 2014 wurden 110 Millionen Gelder aus öffentlichen Quellen und 122 Millionen aus privaten Quellen in das Projekt gesteckt. Bei den öffentlichen Geldern ist DARPA mit 50 Millionen dabei (NIH gibt insgesamt rund 5 Milliarden Dollar pro Jahr für Neurowissenschaft aus). Das Projekt hat derzeit sechs Komponenten, von Zellklassifizierung bis Brain Imaging, Fokus liegt auch Technologieentwicklung. Das Projekt hat einen Zeitrahmen von 10 Jahren (bis 2025), die ersten fünf Jahre haben einen Schwerpunkt auf Technologieentwicklung, die nächsten fünf dann auch Anwendung. Forschungsschwerpunkte sind: Diversität von Zelltypen erkennen, Vernetzung (maps), „brain in action“ (dynamische Aspekte), Kausalitäten identifizieren, „findamental principles“ identifizieren, human neuroscience und Anwendungen. Vorab die DARPA-Beteiligung gab dann zu reden.

Hideyuki Okano sprach dann zur japanischen Brain Initiative „Brain MINDS“ (steht für Mapping by Integrated Neurotechnology for Disease Studies: http://brainminds.jp), das 2014 gestartet ist. Ziel ist es, den krallenaffe (Marmoset) als Modelltier für Hirnkrankheiten möglichst vollständig zu verstehen. Das Gehirn dieses Affen ist vergleichsweise klein (8 g) und zugänglich für Genmanipulation. Man will damit Modelle für zahlreiche Hirnkrankheiten entwickeln. Das Investment besteht offenbar aus 25 Mio/Jahr. Zum Projekt erscheint bald ein Paper in neuroscience Research. Danach hat er viele wissenschaftliche Details aufgrund der eigenen Forschung erläutert.

Qingming Luo hat dann die chinesische Initiative vorgestellt. Deren Fokus ist das „gesunde Gehirn“, d.h. man will verstehen, was das Gehirn schützt. Derzeit ist aber institutionell noch viel unklar, weil derzeit die nationale Forschungsfinanzierung reorganisiert wird. Danach folgen lange Ausführungen zur eigenen Forschung: Identifizierung kortikaler Netzwerke im Maus-Gehirn.

Robert Williamson schliesslich spricht zur australischen Initiative. Diese besteht im Wesentlichen aus einem Report der Australasian Academy of Sciences (AusBrain), de fakto ist noch nichts aufgegleist. Er spricht dann generell zu den Problemen der Forschungsförderung in Australien: Die Infrastruktur ist an sich sehr gut, aber die Konkurrenz um Grants ist sehr hoch, was Kollaborationen stark erschwert. Zudem sind die meisten projekte nur „short term“. Grundidee von AusBrain ist: keine neuen Gruppe schaffen, sondern die Zusammenarbeit fördern, langfristige Perspektiven bieten und internationale Zusammenarbeit anstreben. Fokus ist primär cognitive neuroscience iin Verbindung mit der Psychologie.


18.-21. September 2014: Zürich Game Festival Ludicious

Ich habe nur zu einem der besuchten Vorträge Notizen gemacht: André Bernhardt zu „Video Game Business Models Overview“. Klassische Spiele haben an sich eine schlechte Bilanz: man braucht ca. 150‘000 Euro für die Entwicklung und 200‘000 Euro für die Produktion und kann dann im Schnitt vielleicht 60‘000 Euro Gewinn machen, d.h. man investiert viel Geld für relativ wenig Gewinn. Browser-Games hatten hier bessere Margen (z.B. Gratis-Spiele, man muss dann aber im Verlauf des Spielt etwas kaufen, um weiterzukommen, was pr Zyklus rund 50‘000 Euro Gewinn bedeutet). Das Geschäft hat sich aber geändert, derzeit wird sogar dafür investiert, dass Spieler das Spiel spielen. Die Distributionskanäle haben sich zudem stark verändert. Heute kann es vorkommen, dass Spieler ihre eigenen Spiele produzieren, Produzenten keinen Distributor mehr brauchen, die Verkäufer gebrauchte Spiele verkaufen und der Verleger de fakto keine Rolle mehr hat im Markt.


14.-18. September 2014: NOLTA 2014, Luzern

Ich besuche nur ausgewählte Veranstaltungen von NOLTA und mache nur wenige Notizen. Interessant war der Vortrag von Stefano Boccaletti zum Thema „explosive synchronization“. Er bringt das bekannte Video der gekoppelten Metronome (alle stehen auf derselben Unterlage, sie synchronisieren sich nach kurzer Zeit. Sein Ausgangsmodell ist ein Ensemble von Kuramoto Oszillatoren. Er untersucht Synchronisierung in abhängigkeit der Netzwerk-Topologie. Idee der explosiven Synchronisation ist, dass das System Hysteresis aufweist, d.h. bei bestimmten Parameterwerten kann das System in zwei Zuständen existieren, was raschen Wechsel erlaubt. Er untersucht weiter ein PRE-Paper von 2005 (von Pazo, Nummer 046211) und ein PRL von 2011 und zeigt, dass die dort gemachten Hypothesen betreffend Heterogenität der degree distribution des Netzwerkesund explosiver Synchronisation falsch sind. Offenbar kann man sowohl die Topologie des Netzwerks als auch die Frequenz-Verteilung der Oszillatoren vorgeben, und man findet immer eine explosive Synchronisaton bei geeigneter Wahl der Gewichte.

Fred Wolf spricht dann von Synchronisierung im Gehirn, basierend auf einem Review-Paper in Current Opinion in Neurobiology (Dynamical models of cortical circuits). Interessant im Kortex ist, dass der grösste Teil der „Matzerialinvestition“ in die Verbindungen geht: in einem mm3 Kortex hat es 10^5 Neuronen und 10^9 Synapsen, aber 4 km Axone und 400 m Dendriten. Heute hat man enorme Fortschritte gemacht in der experimentellen Untersuchung neuronaler Aktivität. Er bringt dazu eine Reihe von Beispielen. Wo findet Selbstorganisation im Gehirn statt? Auf der Ebene der Gewichtung der Synapsen (das konnten sie zeigen). Er untersucht vorab den visuellen Kortex von Säugetieren.

Ich habe einige Session-Vorträge besucht, aber dazu keine Notizen gemacht (zu weit weg von dem was ich derzeit mache).


27. August 2014: Veranstaltung Risiko-Dialog zu Bioprinting

Die Veranstaltung der Stiftung Risiko-Dialog, co-organisiert mit TA Swiss, richtet sich vor allem an Fachleute aus Versicherungen etc. Es geht um die Abschätzung von Möglichkeiten und Risiken des 3D-Drucks mit besonderer Berücksichtigung des Bioprinting. Informationen zur Veranstaltung sind hier zugänglich.

Zuerst gibt Manfred Schmid einen generellen Überblick zu 3D-Druck im industriellen Bereich. Er kommt von Inspire AG, eine Art Schweizer Fraunhofer Institut im Miniformat. Fokus ist Produktionstechnik. Zum Begriff „3D-Druck“: Er hält den Begriff für unpräzise – besser wäre „additive manufacturing“. Basisstoffe dazu sind heute vorab Kunststoffe und Metallpulver. Einsatz ist nicht in der Massenproduktion, sondern insbesondere im Bau von Modellen. Anwendungen wird es deshalb vorab bei individualisierten Produkten geben. Beispielswese werden künftig Zahnimplantate durch solche Verfahren hergestellt – der klassische Zahntechniker wird als Beruf aussterben. Hinsichtlich der Verfahren gibt es grosse Unterschiede bei „Home-Varianten“ und industriellen Anwendungen. Erstere sind primär eine Spielerei. Im Industriebereich gibt es mindestens acht gängige Verfahren – und nur eines davon heisst 3D Printing. Die meisten anderen Techniken fallen unter das rapid prototyping und sind schon seit 20 Jahren bekannt. „Echtes“ 3D Printing sind „fudes deposit modeling“ und „selective laser sintering & melting“. Ökonomisch interessant ist 3D Printing vorab für: Kleinserien, Produkte die grosse geometrische Freiheit brauchen, Produkte die integrierte Funktionalität brauchen, personalisierte Produkte, nachhaltige Produkte (da weniger Materialverbrauch, Leichtbauweise, z.B. weniger Transportlogistik). 3D Printing erlaubt auch neue Geschäftsmodelle. Ausblick: viele Länder investieren grosse Summen in 3D Printing, das zuweilen als neue industrielle Revolution angesehen wird: insbesondere China. Gemäss Gartner-Zyklus sind die verschiedenen Anwendungen des 3D-Printing in verschiedenen Phasen: die industriellen Anwendungen haben den Hype überwunden und werden sich nun etablieren – Bioprinting steht noch vor dem Hype.

Daniel Ronzani spricht zu den rechtlichen Aspekten des 3D-Printing. Sein Fallbeispiel zeigt: für Privatanwendungen ist der Einsatz dieser Technik um (widerrechtliche) Kopien anzufertigen viel zu teuer. Folgende Gesetzesbereiche können Anwendung finden: Urheberrecht (verlangt Niederschrift, z.B. die Designvorlage), Markenrecht (braucht Eintrag in ein Register), Designrecht (braucht auch Registrierung) und Patentrecht (braucht auch Registrierung). Computerprogramme können unter das Urheberrecht fallen. Grundsätzlich gilt bei all diesen Rechten, das der Privatgebrauch erlaubt ist (explizit im Urheberrecht, implizit bei den andern drei Rechten). Wo Probleme auftreten könnten: Im Produkthaftungsrecht, da die Produktionsabläufe sich ändern. Hier ist auch generell unklar, inwieweit geistige Leistungen unter die Produkthaftpflicht fallen.

Marc Thurner – Geschäftsführer der RegenHU, stellt Bioprinter her – erläutert das Bioprinting. Kontext ist das Tissue Engineering, besonders Merkmal des Bioprinting ist die Individualisierung. Heutige Einsatzformen im medizinischen Bereich: Herstellung von Augenprothesen, Haut- und Knorpelprothesen, Hörimplantate (angepasst auf die individuelle Geometrie des Hörkanals), drill guides für präzise chirurgische Eingriffe, Implantate wie Zähne oder Knochen. All das hat derzeit noch keine physiologischen Komponenten (Zellen) – daran arbeitet man jetzt. Kernproblem ist auch hier die Angiongenese – allerdings hat 3D-Printing generell die bessere Voraussetzung, dieses Problem zu lösen.

Markus Rimann – Forscher an der ZHAW – erläutert mehr Details zum Bioprinting. Seit mehr als 50 Jahren züchtet man Zellen auf 2D (Platten) – doch man baucht 3D, um die Zell-Zell-Interaktion realistisch nachzustellen. Er gibt einen Überblick über die heutigen Verfahren: Laser, Inkjet, robotergesteuerter Aufbau. Eines ihrer Forschungsthemen ist die „bio-ink“: Diese soll gewissermassen die extrazelluläre Matrix nachbilden, muss also Zellmigration und Zelladhäsion erlauben, eine zelladäquate Verfestigung ermöglichen (bei ihnen: Polymerisation via Licht) und wirtschaftlich einsetzbar sein. Sie sehen den Anwendungsfokus weniger in der regenerativen Medizin, sondern für den Aufbau von Experimentalsystemen, z.B. von Hautmodellen für die kosmetische Industrie (Substanz-Tests). Weitere Anwendungen, die sie erforschen, sind: Muskelfasern, Nierengewebe, Lebergewebe – alles primär für die Substanz-Testung.

Am Schluss folgt mein Vortrag.


26. Juni 2014: HBP Simulation Workshop

Die Einführung kommt von Jean-Pierre Changeux. Grundidee des Simulationsansatzes im HBP: Konstruktion eines „formalen Organismus“ basierend auf neuronaler Architektur und Aktivitätsmustern. Etablierung eines kausalen Zusammenhangs zwischen der objektiven (neuronalen) Messung und dem (subjektiv) Mentalen für wohldefinierte experimentelle Situationen. Herausforderung dieses Ansatzes: die verschiedenen Organisationsebenen, die im Gehirn miteinander verwoben sind.

Henry Markram setzt dann dort an: Simulation ist ein Werkzeug zur Integration der verschiedenen Ebenen. Experimente alleine werden dazu nie in der Lage sein, man wird die alles messen können, was relevant ist. Der Simulationsansatz ist eine Strategie zur Integration von Daten und Wissen, nicht ein blindes Anhäufen von Wissen. Das wird am Beispiel des Blue Brain erklärt. Als das Projekt begann, gab es unzählige Paper zur Funktion einer kortikalen Kolumne, aber dennoch kein „complete picture“ (Frage: wie geht man mit nichtkompatiblen Perspektiven um?). Sie machten damals 20‘000 Experimente, um die relevanten Zahlen einer Kolumne (junge Ratte, somatosensorischer (?) Kortex, in vitro) zu generieren. Sie geben sehr präzise Zahlen an (zu präzise? Illusion einer Präzision?). Ihr workflow ist bottom up: Zuerst einzelnes Neuron rekonstruieren, dann darauf aufbauen. Sie finden 55 verschiedene neuronale Zelltypen und 207 verschiedene morpho-elektrische Zelltypen in einer Kolumne (was ist das Kriterium der Individuierung?). Beispiel Zelldichte: Papers behaupteten es gebe 40‘000 bis 80‘000 Zellen pro Kolumne. Sie haben mit neuer Methode nachgezählt und finden mehr (120‘000, wenn richtig notiert). Doch was macht sie so sicher, dass diese Zahl stimmt? (Antwort: viele verschiedene Daten hängen zusammen, wenn die Zahl der Zellen deutlich anders wäre, wären viele andere Daten auch deutlich anders – da müsste man aber mehr wissen, wie stark die entsprechenden Zusammenhänge wirklich sind). Dann die Rede von „Prinzipien“: Markram meint es gebe deren vier (paraphrasiert): 1) Neuronen berühren sich praktisch überall (nicht so klar, was das genau meint), 2) 95% er Synapsen bilden sich dort, wo Neuronen sich berühren, 3) zwischen zwei Neuronen gibt es mehr als eine Verbindung, 4) Reorganisation ist möglich. Das scheinen mir sehr allgemeine Aussagen zu sein, die grossen Spielraum lassen. Allerdings: will man die Verbindungen im realen Experiment nachbilden, ist das extrem teuer. Deshalb erscheint der Simulationsansatz plausibel. Doch was bedeutet das für die Falsifizierbarkeit, denn de fakto ist eine solche ja nicht mehr möglich (nur noch auf höherer Ebene, doch dort ist es dann schwieriger). Dennoch: der Ansatz ist interessant, denn es erlaubt Vorhersagen, z.B. über die Verteilung von Synapsen („synaptome“).

Alain Destexhe spricht über theoretical neuroscience und dem Problem der verschiedenen Skalen (er vertritt gewissermassen den top-don-Ansatz). In seinem work package geht es um folgendea: 1) Brückenprinzipien zwischen Ebenen, 2) synaptische Plastizität, Lernen, Gedächtnis, 3) kognitive Funktionen, 4) brain computation principles, 5) Aufbau eines Instituts für theoretical neuroscience (www.eitn.org). Ihn interessierende Fragen sind: wie vereinfacht man Morphologie und elektrische Aktivität, Verständnis von Signalen wie EEG und MEG, Verständnis der Netzwerk-Dynamik. Um computation zu verstehen, muss man massiv vereinfachen, damit die Sache überhaupt mathematisch gehandhabt werden kann. Hier stellen sich aber auch wissenschaftstheoretische Probleme, z.B. die Rede von „Ebenen“, ontologische Einheiten auf diesen Ebenen, Emergenz, etc.

Hervé LeTreut spricht über Klimamodellierung – aber er macht wenig Bezüge zum HBP. Bei ihnen geht es primär um Vorhersage. Eine Analogie: die Modelle begannen einfach und wurden immer komplexer. Natürlicher Treibhauseffekt: 155 Watt/m2, künstlich: +3 Watt/m2. Derzeit koppelt man folgende generellen Komponenten: Atmosphäre (Untereinheiten: Aerosole, Vegetation), Kopplungsparameter zu: Ozean (Untereinheit: maritime Biosphäre) und Meereis. Heutige Modelle haben über eine Million Code-Zeilen. Meine Frage: nutzt man Modelle auch zur Leitung der Forschung (also: was man messen will?). Er antwortete nicht wirklich darauf.

Julie Jebeile sprach als Philosophin zum Thema. Ihre Interpretation des HBP: es geht um die Generierung eines systemischen, multi-level Modells des Gehirns, das Explanation erlaubt (z.B. hinsichtlich Krankheiten). Das sei an folgende Voraussetzungen geknüpft: 1) detailliertere Modelle seien besser, 2) reduktionistischer Ansatz (Phänomene auf höherer Ebene werden durch tiefere Ebene erklärt). Das führt zu den Fragen: Erklären Computersimulationen etwas? Und: Verbessert reduktionistischer Ansatz das Verständnis eines Problems. Ihr Begriff von Erklären: Beantwortung von „Warum?“ Fragen durch Angabe von relevanten Aspekten (beinhaltet Vereinfachung und Idealisierung). Computerprogramme sind Simulationen von Modellen (Simulation von bestimmten Input-Output-Relationen). Sie bringt dann eine Art „Komplexitäts-Argument“, das ich nicht verstehe: Simulationen könne man nicht verstehen, weil sie zu schnell sind, um nachvollzogen werden zu können (?) und wenn man sie verlangsamt, dauern sie zu lange. Wichtiger Hinweis auf die Bedeutung visueller Repräsentationen.


08.-11. Juni 2014: 22. European Conference on Information Systems (Tel Aviv)

Am Sonntag besuchte ich den Workshop zu eHealth. Ali Sunyaev präsentierte eine Studie zu Mobile Apps, von denen es bereits gegen 33‘000 geben soll. Ausgangslage waren rund 22‘000 Apps für IOs (iPhone) und 2500 Apps für Android. Die jeweils 600 als am besten beurteilten Apps wurden hinsichtlich Privacy Policies untersucht: nur 31% hatten überhaupt solche Policies und nur 34% davon hatten einen als relevant betrachteten Inhalt. Tsipi Heart spricht dann über den Einsatz von Tablets auf Notfallstationen (als technisches Gerät, um den Einsatz von Electronic Health Records zu verbessern). Grundidee: die Abläufe beschleunigen um damit den Stress des Personals zu vermindern. Soweit die Analyse zeigt, ist das Hauptproblem die Unterbrechung der Prozeduren durch Nachfragen von anderen Ärzten, Schwestern etc. zu anderen Fällen. Die neu definierten Prozesse werden offenbar dadurch schneller (in der Simulation), indem diese Nachfragen sich vermindern (man optimiert die physischen Wege zwischen den Patienten) – doch diese Nachfragen haben ja einen Grund, so dass eine Beschleunigung in der Praxis unwahrscheinlich sein dürfte. Nilmini Wickramasinghe spricht dann über risk detection bei Operationen und vergleicht dazu zwei Typen von Operationen: Herzchirurgie bei angeborenen Herzfehlern (komplex) und den Ersatz des Hüftgelenks (einfach). Ein Problem bei solchen Studien scheint das „grosse Ego“ der Ärzte zu sein. Interessante Beobachtung: das ethical review board sah bei der Studie vorab das Problem, dass herauskommen könnte, dass Patienten mit der Behandlung unzufrieden sein könnten (was rechtliche Konsequenzen haben könnte). Wendy Currie gab dann eine Übersicht zu Journals für Leute, die im Bereich eHealth arbeiten und präsentierte ihr eigenes Journal: Health, Policy, and Technology. Interessant sind auch: Health Affairs (allerdings starker US-Fokus). Solomon Negash spricht dann zur Nutzung von mHealth (mobile Applikationen) in Äthiopien. Generell ist Afrika weit offener für solche Anwendungen. Über 50% der afrikanischen Bevölkerung ist jünger als 25 Jahre, die Bereitschaft, neues auszuprobieren ist gross. Im besprochenen Beispiel: es gibt in Äthiopien über 90‘000 Healthcare extension workers, die mittels Handys gewissermassen erste Ansprechpartner für Gesundheitsfragen sind. Peter Trkman spricht dann über Einschätzungen von Telemedizin in der älteren Bevölkerung in Slowenien. Generell ist die Zahlungsbereitschaft für solche Technologien eher gering. Akzeptiert werden vorab solche Techniken, die bestehende Services (z.B. Verlängerung von Rezepten) einfacher machen. Das Vorliegen einer „kritischen Masse“ scheint nicht so wichtig zu sein, dass sich eine Anwendung durchsetzt. Den Vortrag von Ofir Ben-Assuli habe ich weitgehend verpasst. Es gibt offenbar ein National Center for Health Statistics (http://www.cdc.gov/nchs/), das als Quelle für Szenarien dienen kann. Reeva Lederman spricht darüber wie man medizinische Informationen für Patienten derart editieren kann, dass sie dem „cognitive style“ des Patienten angemessen erscheinen. Generell gilt, dass die Patienten folgendes von einer Diagnose wissen wollen: 1) Allgemeine Informationen zur Krankheit, 2) allgemeine Informationen zum Krankheitsverlauf, 3) warum sie selbst betroffen sind, 4) was mit ihnen selbst passieren wird, 5) wann was passieren wird. Sie haben ein Experiment gemacht, wie die Aufbereitung von Informationen gemäss dem cognitive style (functional theory of attitudes: utilitarianism, value expression, ego-defense (?), knowledge-oriented) das Verständnis beeinflusst. Die Ergebnisse scheinen nicht so beeindruckend zu sein. Es scheint so zu sein, dass vorab ein „mis-match“ negative Auswirkungen hat, ein „match“ aber keine positiven Auswirkungen hat. In der Panel-Diskussion dann noch zwei kurze Vorträge: Nilmini Wickramasinghe erläutert am Beispiel Cleveland Clinik (das hier offenbar eine Vorreiterrolle hat), wie eHealth Initiativen umgesetzt werden. Aus rechtlichen Gründen müssen relevante Informationen aber immer noch ausgedruckt werden. Tom Spil schliesslich mit einigen Visionen: man sollte ein eHealth-Äquivalent zu Facebook erstellen, eine Platform, die auch informationstausch ermöglicht. Homecare und dergleichen werde zu einer enormen Menge an Daten führen, die man nutzen sollte.

Am Montag folgte dann der Eröffnungs-Vortrag (Konferenzdaten: gut 500 Teilnehmer aus 45 Ländern, dann noch 150 lokale Business-Vertreter). Die Proceedings sind hier zugänglich: http://ecis2014.eu/E-poster/docs.php. An diesem Tag erfolgte auch die Präsentation unserer Forschung. Hier nur wenige Notizen zu den besuchten Vorträgen (leider waren die meisten interessanten Vorträge an einem Tag, d.h. Überschneidungen. Manche sind auch nicht gekommen, d.h. Vorträge wurden abgesagt): Scott Thiebes sprach zu „Gamifying Information Systems – A Synthesis of Gamification Mechanics and Dynamics“. Vorwiegend eine Literaturstudie. Das Paper ist aber interessant, weil es eine Übersicht zu game mechanics gibt (challenges, rewards, social influences: http://ecis2014.eu/E-poster/files/0278-file1.pdf). Fabian Dany sprach zu „Understanding Dr. No – A Comprehensive Model Explaining Physicians’ Acceptance of Telemedical Systems”. Offenbar gibt es grosse Widerstände zur Nutzung solcher Systeme. Interessanterweise war in der Befragung und im Modell der objektive Nutzen kein Element, das zur Erklärung dieses Sachverhalts herangezogen wurde (soweit ich jedenfalls das Modell verstanden habe, das wurde in der Fragerunde auch von anderen erwähnt). Philipp Klöcker sprach zu „Implementation through Force or Measure? How Institutional Pressures Shape National eHealth Implementation Programs”. Offenbar hatte man in Deutschland die Gesundheitskarte (speichert kaum Daten, sondern ist eher eine Art Zugangskarte) 2012 herausgegeben, obgleich die technische Infrastruktur frühestens 2015 bereit ist. Ein Ergebnis: institutional pressure hat den gegenteiligen Effekt, die Leute wollen erst recht nicht. Tatiana Erenakova sprach zu „Acceptance of Health Clouds – A Privacy Calculus Perspective”. Die Hypothesen liegen allesamt auf der Hand. Spyros Arvanitis sprach zu “An Empirical Investigation of the Impact of ICT on Innovation in European Hospitals” – ein beeindruckender Datensatz von 743 europäischen Spitälern. Unklar, was product und process innovation genau darstellen. Eine der Haupterkenntnisse, dass ICT im Bereich Gesundheit kein einheitliches Phänomen ist, liegt auf der Hand. Interessant: Die Zahl der explizit für ICT angestellten Personen ist nicht relevant für die Innovation. Michael Notter sprach zu „Visualizing Social Roles - Design and Evaluation of a Bird's-Eye View of Social Network Privacy Settings”. Interessanter Versuch, dem Nutzer die eigenen privacy-Settings zu vermitteln.

Am Dienstag besuchte ich unter anderem David Bodoff „The Effects of Time and Number of Personalized Items on Users’ Amount of Sampling” – ein wirrer Vortrag, aber ein interessantes Problem (http://ecis2014.eu/E-poster/files/0169-file1.pdf). Sehr interessant war Daniel Hardt „Can you Trust Online Ratings? Evidence of Systematic Differences in User Populations” mit seiner Untersuchung eines kulturellen Stereotyps hinsichtlich der Kommunikation von Qualitätsurteilen in den USA (Tendenz zur Überbewertung) und Skandinavien (Tendenz zur Unterbewertung). Interessanter methodischer Ansatz der sentiment analysis (Paper: http://ecis2014.eu/E-poster/files/0770-file1.pdf). Peter Mayer zu „Persuasive Messages: The Effect of Profiling“. Das Paper enthält eine gute Übersicht zu den verschiedenen Möglichkeiten des Profiling (http://ecis2014.eu/E-poster/files/0377-file1.pdf). Eine interessante Prototyp-Demonstration: Literatursuche mit latent semantic indexing: http://ecis2014.eu/E-poster/files/0178-file1.pdf

Am Mittwoch habe ich nur einige Talks des Business Days gesehen (Demo von Google Glass leider verpasst).


21. Mai 2014: Vortrag Bruce Schneier an der Uni Zürich

Ein brillanter Vortrag von Bruce Schneier zu „Internet, Security, and Power: How the Internet affects Power and how Power affects the Internet“. Hinweis auf einige grundlegende Punkte: Erstens, Daten sind ein fundamentales Nebenprodukt von Rechnern – alle Aktivitäten von Rechnern hinterlassen logfiles, und je mehr Rechner in irgendeiner Form in Alltagsaktivitäten involviert sind, desto mehr solche Daten wird es geben. Zweitens, es ist billiger, in Daten zu suchen als Daten zu ordnen (das mag in psychologischer Hinsicht falsch sein. Hier wäre die Frage: was ändert an unserer Psychologie, wenn wir nicht mehr Informationen ordnen, sondern danach suchen?). Drittens, Daten wurden früher aus gewissermassen historischen Gründen gespeichert – heute werden Daten gespeichert, damit die Entscheidungen ermöglichen. Viertens: die Unterscheidung zwischen Daten und Meta-Daten hinsichtlich Überwachung ist irrelevant – im Gegenteil: Meta-Daten sind viel wertvoller für Überwachung als Dateninhalte, denn daraus generiert man Verhaltensprofile, die mehr aussagen über eine Person, als deren Aussagen. Interessante Frage: was bedeutet das für unser Verständnis von Einstellungen und dergleichen, die wir ja inhaltlich definieren. Wir müssen heute davon ausgehen, dass Überwachung inhärent ist, wenn man in der modernen Welt lebt. Man kann dem nicht ausweichen, selbst wenn man sein eigenes Verhalten ändert, denn die anderen speichern dennoch deine E-Mails, haben dich auf ihren Fotos, etc. Die Tatsache, dass es derart billig geworden ist, Daten zu erfassen und zu speichern, führt zu einem qualitativen Wechsel. Die Überwachungstechnologien sind vielfältig geworden, man kann z.B. Profile suchen. Das Ausmass von Zensur und Manipulation im Internet ist deutlich gewachsen. Der Cyberspace wird zum Kriegsschauplatz. Ein weiterer Punkt: wir kontrollieren die Geräte, die die Informationen generieren, immer weniger. Der klassische Desktop-Computer ist technisch verhältnismässig schwierig zu kontrollieren durch Software. Aber ein Handy macht alles zentralisiert. Computer werden immer mehr wie Handys, technologisch gesehen, und der Nutzer verliert Kontrolle, was z.B. draufgeladen wird. Die Überwachung ist zudem robust. NSA kann auf drei verschiedene Arten (in technischer und juristischer Hinsicht) auf gMail zugreifen.

Was kann man tun? Es gibt schon gewisse technische Lösungen, die sind aber nicht massentauglich. Das Hauptproblem ist politischer Natur. Staaten wollen überwachen (aus Angst), Firmen wollen überwachen (weil dadurch die Dienstleistungen einfacher werden). Wie kam es zum naiven Glauben, das Internet würde frei machen? Aus Gründen der Dynamik der Technologieentwicklung. Im frühen Internet war es eine Avantgarde, die zuerst das Netz brauchte und das schnell und chaotisch tun kam. Die Institutionen kamen 10 Jahre später, aber mit viel mehr Macht und Durchschlagskraft. Wer wird künftig gewinnen: die Schnellen oder die Starken? Interessant ist: die NSA hatte offenbar nicht mit dem Risiko gerechnet, dass all ihre Geheimnisse auffliegen könnten. Diese Möglichkeit werden die Geheimdienste und Staaten künftig wohl einberechnen in ihre Entscheidungen. Man sollte zudem Spionage (Regierung überwacht andere Staaten) von Überwachung (Regierung überwacht Bevölkerung) konzeptionell trennen – ersteres ist eine militärische Aufgabe, letzteres eine Polizeiaufgabe. Man sollte also zwei Institutionen dafür haben. Ein Problem hier ist wohl aber, dass Terrorismus diese Grenze verschwimmen lässt. Schliesslich noch ein Hinweis auf den neuen EU-Richterspruch zum Recht auf Vergessen. Dieser ist in dieser Form schlicht blödsinnig und führt in die falsche Richtung. Man muss die Angelegenheit als eine Form der moralischen Revolution ansehen, analog wie die Aufhebung der Sklaverei. Es muss den Menschen deutlich werden, warum Privatheit derart zentral ist. Es geht nicht darum, Informationen „zu verstecken“. Es geht darum, dass sich menschliches Verhalten fundamental ändert, wenn dieses unter der Bedingung des ständig beobachtet seins geschieht (da kann man sich fragen, inwiefern das empirisch stimmt).


24. März 2014: Brocher Foundation zu ethischen Fragen des HBP

Quasi als Vorbereitung zur Sitzung des BHP ELSA Komitees besuche ich die Veranstaltung der Brocher Foundation (allerdings nur den ersten Tag). Jean-Pierre Chageux gibt einen generellen Überblick zum HBP (mehr oder weniger dasselbe wird er dann zwei Tage später in Paris machen). Das Gesamtbudget ist 1.16 Milliarden Euro, rund 3% davon (in der ramp-up Phase 5%) werden für Ethik reserviert sein. Wichtig ist sein Hinweis, dass dieses Projekt eben primär auch ein Wissens-Integrationsprojekt ist und es entsprechend eine „epistemiological ethics“ braucht (wie kollaboriert man in einem solchen Projekt? Wie organisiert man Wissen?). Die wichtigsten ethischen Aspekte seiner Ansicht nach: Der burden of brain diseases. Rund 38% der Bevölkerung Europas soll (mindestens einmal im Leben?) von einer brain disease betroffen sein (woher stammt diese Zahl?), was 2010 Kosten in der Grössenordnung von gegen 800 Milliarden Euro verursacht haben soll (woher stammt diese Zahl?). Hinweis auf die zahlreichen Fragen und Unklarheiten: Was sind die „building blocks“ des Gehirns, was die relevanten Zeitskalen? Inwiefern liefert der Simulations-Ansatz brauchbare Resultate? Kann man die Prävention für Hirnkrankheiten verbessern? Was bedeutet es, wenn man mittels Hirnstimulation das “Selbst“ beeinflusst? Welche Möglichkeiten bietet Enhancement. Und natürlich der Klassiker „freier Wille / Verantwortung“. Er sieht auch eine wichtige Rolle der Hirnforschung bezüglich Bedingungen für optimale Hirnentwicklung und damit auch Erziehung. Auch den Einfluss auf die Technologie sollte man nicht geringschätzen (Hinweis auf DARPA-Finanzierung entsprechender Projekte in den USA). Danach stellt er noch SP12 vor (dort ist die Ethik angesiedelt): Foresight, conceptual issues, public dialogue, researcher awareness, government & regulation, ethics & society.

Eric Racine stellt seine Forschungen überblicksartig vor inkl. eine Präsentation verschiedener Verständnisse von Neuroethik: knowledge-driven view (Roskies), technology-driven view, context & deliberation driven view. Einige Bemerkungen, warum man den public impact von neuroscience untersuchen sollte: premature use, unwarranted use, mistaken expectations (das übliche halt). Journalisten kommunizieren oft ungenügend (was wiederum schwer beeinflussbar ist).

Henry Markram stellt ebenfalls die Grundzüge des HBP vor und macht deutlich, dass die Simulation nicht im Zentrum steht – es geht um einen „plan for data“, ein Verfahren, die enorme Menge an Wissen sinnvoll zu strukturieren. Simulation soll dazu dienen, die richtigen Experimente auszuwählen. Visualisierung dürfte ein crucial point werden. Interessant wird es auch, wie sie das data mining organisieren, zumal die Kategorien selbst (z.B. hinsichtlich der Gliederung von Hirnkrankheiten) falsch sein könnten.

Paul Thagard stellt seine Ideen zu Kohärenz vor. Passt irgendwie nicht richtig. Patricia Churchland sieht zwei ethisch interessante Probleme: zum einen die Nutzung transgener nonhuman primates (weil diese sehr billig herzustellen sind und sicher das bessere Tiermodell sind für Hirnkrankheiten als Mäuse) und eine praktische Unterminierung der Idee des freien Willens.


07. Februar 2014

Workshop des Swiss Networks for International Studies über Intelligent Agents. Zuerst gab Dominik Herrmann einen guten Überblick über Intelligent Agents. Er selbst arbeitet zu profiling und tracking aufgrund von Suchmustern (man kann zeigen, dass das Löschen von Coockies alleine nicht ausreicht, um anonym im Internet zu surfen). Kurzer Blick auf die Frühgeschichte der KI: Turing, Minsky & Co. Als Beispiele erfolgreicher Anwendungen wurden genannt Schachspielen, Theoreme beweisen, „general intelligence“ – letzteres ist heute noch nicht erreicht worden, für das andere gibt es erfolgreiche Beispiele. Die „Intelligenz“ der agents ist heute noch stark auf bestimmte Domains reduziert: z.B. optimale Routenwahl bei einem GPS-System, recommender systems, Objekt-/Gesichtserkennung, Textübersetzung, Übertragung gesprochener Sprache in Text, Spiele (nicht alle, z.B. bei Go schlägt die Maschine den Menschen noch nicht). Charakterisierung eines intelligent agent ist: findet neue Problemlöse-Algorithmen, agiert in real time, analysiert sich selbst, lernen und Verbesserung, kann mit grossen Datenmengen umgehen. Beispiel eines „intelligent agent“, der kürzlich Gegenstand rechtlicher Kontroversen wurde: die autocomplete function von Google, die aus dem Suchverhalten der Massen resultiert (Fall Bettina Wulff). Beispiel, das bald Kontroversen geben könnte: autonom fahrende Fahrzeuge. Diese müssen die vier klassischen Probleme der KI lösen: Wahrnehmung, Planung, Entscheidung, Interaktion mit der Umwelt. Wichtig für Privacy: Solche Fahrzeuge generieren nicht nur reine Bilddaten der Umgebung, sie müssen ein Modell der Umgebung generieren (also z.B. bereits die Information speichern, ob ein bestimmtes Objekt ein anderes Auto ist und wie schnell es fährt) – das erlaubt weit mehr Rückschlüsse über die Umgebung. Nach Rückfrage dürften das mehrere GByte sein pro Minute. Und ausserdem: sich „verhaltende“ agents sind eigentlich fast schon psychologische Experimenten von simuliertem menschlichem Verhalten – allerdings mit Zugriff auf die internen Prozesse; ein mächtiges Instrument, um Verhalten selbst zu verstehen.

Er untersucht dann weiter drei Hauptcharakteristika interlligenter agents im Vergleich zu herkömmlicher Software: Autonomie, Mobilität (d.h. agieren in der physikalischen Welt, sofern sie so was wie einen Roboter kontrollieren), unbestimmtes Verhalten.

  • Die agents sind autonom insofern, als dass sie ihr verhalten selbst kontrollieren und asynchron gesteuert werden. Kausalität und Haftbarkeit können dadurch fraglich werden, was allerdings von den Gerichten derzeit nicht so gesehen wird. Beispiel: das recommender system yelp, das abgegebene Bewertungen auf ihre „Güte“ prüft und nur „gute“ Bewertungen zulässt (ohne dass kenntlich wird, wie diese Bewertung der Bewertung stattfindet). Zahnarzt klagte gegen Yelp, dass abgegebene Bewertungen seiner Praxis als „schlecht“ (d.h. vermutlich Fake) bewertet werden – und bekam vor Gericht Recht.
  • Mobilität am Beispiel des autonomous car kann mit drei Arten von Risiko einher gehen: Safety, d.h. das System funktioniert nicht; löst man klassisch durch Redundanz und Diversität. Security, d.h. das System kann angegriffen und fremdgesteuert werden; löst man durch Sicherstellung von integrity, authenticity, confidentiality. Privacy (insbesondere, wenn man Security lösen will: Dritte können erfahren, wohin man gefahren ist; betrifft aber auch die Umgebung, die ja ebenfalls erfasst wird und dadurch potenziell zugänglich wird). Tragische Dilemmas wollen die Systeme nicht lösen, derzeit planen die Autobauer so, dass in diesem Fall die Entscheidung wieder an den Menschen geht (was den praktischen Wert dieser Systeme natürlich unterminiert).
  • Unbestimmtes Verhalten: Das Problem ist, dass bei autonomen Systemen der Erbauer nicht mehr alle (realistischen) Möglichkeiten durchspielen kann – man baut die Systeme ja so, dass sie einen gewissen Freiheitsgrad haben. Unbestimmtheit heisst aber auch, dass die Systeme auf unbekannte Weise angegriffen werden könnten. Z.B. Google suggest kann man so angreifen, indem man mittels ATurk massenweise immer dieselbe Suchanfrage generiert, um so einen gewünschten autocomplete zu erreichen.

Er bringt dann weitere Beispiele von fraglichen Auswirkungen autonomer agents: algorithmic trading (Flashcrash, heute hat man automatisierte Handelsunterbrechungs-Systeme, die am 7. Januar 2014 einen ähnlichen Flashcrash beim Goldmarkt zumindest abgeschwächt haben: Goldpreis sank um 2.4%, es erfolgte dann eine Unterbrechung des Handels für 11 Sekunden). Expertensysteme für die Auswahl zu kontrollierender Fahrzeuge an der Grenze USA-Mexiko (das Wissen, wie das System funktioniert, ist dann aber sehr sensibel). 

Mögliche Lösungsmechanismen: Einbau von moral computing (d.h. die Systeme wissen, was richtig oder falsch ist; derzeit nur theoretisches Konzept), defnierte whitelists (in allen anderen Fällen schaltet sich das System ab), externes Monitoring (geht dann mit anderen Risiken einher, z.B. Kriminelle können Gesamtsystem lahmlegen, Problem des trackings), Privacy by design (z.B. Google Goggles) oder menschliche Interventionen (z.B. blockieren bestimmter Begriffe bei Google suggest).

Susanne Beck sprach dann über das Verhältnis von intelliget agents und Strafrecht (sie hat kürzlich ein Buch über Robotik und Recht geschrieben; der geplante Vorredner Giovanni Sartor war krank). Roboter werden künftig in zahlreichen Kontexten zum Einsatz kommen (Industrie, Verkehr, Pflege, Haushalt, Bildung, Militär) und die Frage ist, was passiert, wenn etwas schief geht. Eine Lösung läuft über standards of reasonable care (also Standards hinsichtlich der Herstellung und des Einsatzes solcher Systeme) – nur bestehen diese noch kaum, der Weg ihrer Generierung in der Praxis (Fachgesellschaften und dergleichen) ist eher undurchsichtig, Problem, dass die Standards den Gesetzen widersprechen könnten und man das zu spät merkt. Problem ist auch, dass die Vorhersehbarkeit möglicher Risiken sinkt, je autonomer die Roboter sind. Das kann mit Verantwortungs-Diffusion einher gehen, denkbar ist eine Entwicklung wonach Menschen Roboter dereinst als legal entities ansehen könnten (zu beachten ist wohl auch, dass der Verantwortungsbegriff selbst sich abschwächt, zumal immer mehr Menschen in Kontexten arbeiten, bei denen klare Verantwortungszuschreibungen fehlen). Frage ist auch, wie man mit unbeabsichtigten Nebeneffekten umgehen will. Mögliche Anpassungen: Fokus verschiebt wich weg von der Vorhersage des Verhaltens hin zur sozialen Adäquatheit des Handelns (?), die Idee des erlaubten Risikos rückt ins Zentrum, side effects werden eher zur Seite gerückt. Sie vertritt die Idee, dass man Roboter dereinst als electronic persons sehen könnte, also analog wie man juristische Personen im Recht geschaffen hat – wobei zu beachten ist, dass die Interaktion von Menschen mit juristischen Personen weit abstrakter ist als mit Robotern. In der Diskussion eine Bemerkung von Herrmann: wie wehren sich IT Security Leute gegen den Vorwurf, dass das Prüfen von System-Schwachstellen selbst als kriminelle Handlung gesehen werden kann? Man agiert nie alleine, man dokumentiert alle Schritte.

Melanie Graf sprach zu open development of intelligent machines. Hier geht es um den Aspekt des Zivilrechts, wie man Innovation fördern kann. Sie stellt Möglichkeiten vor, wie man das Copyright-Recht so für open source (software und hardware) anpassen kann, dass der intendierte offene Charakter gewahrt werden kann.

Gerald Spindler plädiert dann für ein striktes Haftungsrecht im Fall intelligenter Agenten, die man de fakto als Software verstehen sollte (z.T. eingebettet in realweltlich agierenden Systemen). Kurz gesagt ist ein intelligent agent eine Software, die lernt und ihr Verhalten adaptiert. Solche Software (wie Software generell) kann man nie 100% sicher machen. Dennoch und auch obwohl intelligent agents teilweise unvorhersehbares Verhalten zeigen könnten, sollte eine strikte Haftung und auch Schadensersatz gelten. Hingegen muss man davon ausgehen, dass das Vertragsverhältnis sehr komplex ist, d.h. ein intelligent agent nicht einfach gekauft wird, sondern gewissermassen ständig überwacht oder nachgebessert werden müsste (eine Art Unterhaltspflicht?) – zumindest im B2C Bereich und sicher, wenn es um Verletzungen geht (im Fall von Robotern). Schwierigkeiten stellen sich bei Haftpflicht bei Nachlässigkeit (des Kunden). Hier stellt sich das Problem, was als voraussehbar gelten könne. Interessante Bemerkung: derzeit haben die Software-Hersteller keine rechtliche Pflicht, Patches zu machen (dennoch machen sie es, sie müssten aber nicht). Bezüglich dieser Problematik besteht eine Verbindung zum Verwaltungsrecht (administrative law, verstehe ich nicht). Weitere wichtige Bemerkung: im Medizinbereich gibt es eine strenge Haftpflicht auch im Fall von Software (wie bei allen anderen Produkten auch) – obwohl die Softwarehersteller immer sagen würden, das ginge im Fall von Software nicht. Weiterer interessanter Punkt: die Pflicht zum Monitoring würde auch die Pflicht beinhalten, Produkte aus dritter Hand zu überwachen. Beispiel eines Gerichtsfall, bei dem zwei Rasenmäh-Roboter interferierten (ähnliche Frequenzen zur Steuerung), was zur Folge hatte, dass ein Rasenmäher den garten des anderen plattmähte. Das Unternehmen, das den Rasenmäher-Roboter herstellte, musste dann zahlen. Es gibt natürlich auch Pflichten der Nutzer: Umstände des Einsatzes prüfen, Unterhaltspflicht, System beaufsichtigen und reparieren, Missbrauch verhindern – und natürlich Haftpflicht, wenn der intelligent agent im Sinn und auf Anweisung des Nutzers gehandelt hat. Beispiel Medizinroboter: hier gibt es eine Ausbildungspflicht für Ärzte. Die Frage nun: wird es ein solch scharfes Haftpflichtrecht im Bereich Software demnächst geben: eher unwahrscheinlich, das Industrielobbying ist zu stark. Heute ist zu viel Software einfach „quick and dirty“. Wenn dann mal Roboter durch schlechte Software gesteuert wird, könnte sich das ändern.

Christian Tschudin beleuchtet das Problem aus einer grundsätzlichen Sicht des Computerwissenschaftlers. Coputer sind eine distracting technology, die verändern ganze Lebensbereiche, was immer wieder zu gesetzgeberischer Aktivität führe (z.B. unterschiedliche Behandlung von Bitcoins in diversen Ländern: Thailand verbietet ganz, Finnland besteuert, etc.). Beispiele, wie machine learning funktionieren kann: data mining wie im Target-Beispiel (Einkaufsverhalten weist auf Schwangerschaft hin). Verschlüsselungstechnologie war noch vor ca. 20 Jahrzehnten fast ein Staatsgeheimnis, heute Massentechnologie (z.B. e-Banking). Schadenspotential kann enorm sein (cyberwar). Skizzierung der Idee, wie solche Techniken auch im Recht eine Rolle spielen könnten: data mining in Gericjtsfällen, um die Erfolgswahrscheinlichkeit einer Klage zu bestimmen.

Nikos Volanis von der ITU macht eine generelle, eher oberflächliche Übersicht zu den bedenklichen Entwicklungen (autonome Kampfroboter, Facebook bots etc.). Er spricht von automatisiertem decision making, das es in dieser Form aber noch nicht gibt.

 


22. Januar 2014: CPDP 2014

Im Rahmen des Vorbereitungstreffens für unseren Horizon 2020 Antrag ersetze ich Jeroen im Panel zu location data an der Conference Computers, Privacy and Data Protection (CPDP). Hier die Notizen der anderen besuchten Veranstaltungen.

Session „resilience to surveillance“ – ein Projekt, das im Rahmen des Framework 7 Projektes IRISS verfolgt wurde. Kristie Ball spricht über die umfangreiche Literatur zu den negativen Effekten von surveillance: diverse Formen von Schäden, Unterminierung von Vertrauen. Im Rahmen von IRISS wurden zahlreiche Fallstudien umgesetzt, unter anderem zu automated number plate recognition (ANPR), credit screening und neighborhood watch. ANRP wird in den verschiedenen Ländern recht unterschiedlich gehandhabt, Deutschland offenbar hat das verboten (zumindest einige Bundesländer); in Slowenien wird das Verfahren für das Eintreiben der Lastwagen-Maut verwendet (was zu Umgehungs-Verkehr führt). Es handelt sich hier um ein Verfahren der Massenüberwachung. Resilienz-Massnahmen sind u.a. rechtliche Klagen und Medienkampagnen. Credit scoring wurde u.a. in Grossbritannien untersucht. Hier gibt es diverse Möglichkeiten, das eigene Profil zu „managen“ (man lernt die „rules oft he game“). In Italien können solche Verfahren eine beachtliche Gefahr darstellen (Reputationsverlust). Minas Samatas spricht über die Situation in Griechenland – auch über die enorme soziale Krise aufgrund der Austeritätspolitik. Griechenland hat aufgrund der Militärdiktatur (und auch den Massnahmen rund um die olympischen Spiele) diverse Erfahrung mit Überwachung gemacht. Auch jetzt sind ensprechende Mechanismen wieder in Kraft: 50‘000 Telefone sind angezapft, politische Parteien (Opposition) werden überwacht es gibt diverse Online-Pranger (z.B. für Steuersünder). Gegenmassnahmen sind Massenproteste, Vandalismus gegen staatliche Institutionen, ziviler Ungehorsam. Hille Koskela spricht zu ihrer Arbeit über die Selbst-Präsentation von Leuten im Internet und dann über Beispiele, wie Leute in Überwachungsaufgaben eingebunden werden. Das Beispiel der Grenzkameras in Texas: Hier wurden Kameras entlang der Grenze online geschaltet und die Leute konnten Grenzverletzungen direkt einer Hotline melden. Das hat nicht funktioniert. Zu wenige machten mit, zu viele Witz-Meldungen, (es fehlte z.B. auch ein Backup zur Kontrolle). In Grossbritannien wiederum werden die Videoaufnahmen von Überwachungskameras in den Läden selbst öffentlich gemacht. Kunden können direkt Ladendiebe identifizieren und erhalten dafür Punkte. Sie nennt als Resilienz-Massnahme counter-surveillance: Überwachung des Staates, z.B. Veröffentlichung von Videos über Polizeiübergriffe. Pete Fussey schliesslich spricht über den Resilienzbegriff generell. Der Begriff, der etwa seit 10 Jahren in der Debatte ist, ist nicht definiert und wird verschieden gebraucht: manchmal im Sinn von Risikomanagement, manchmal im Sinn von Widerstand, manchmal im Sinn von Kontrolle. Ursprünglich kam er offenbar aus der Ökologie, Instabilität als Gegenbegriff. In der zeitlichen Entwicklung wurde Resilienz zuerst wie Robustheit verstanden (das System widersteht einer Störung, z.B. mittels Redundanz), dann eher im Sinn von recovery und reaction (das System erholt sich von einer Störung), schliesslich im Sinn von adaptability (das System verändert sich aufgrund einer Störung im Sinn einer Anpassung). Zusammengefasst: der Begriff hat viele Schattierungen.

Session zu „access rights“: Ein neues Thema im Kontext der aktuellen Überwachungs-Skandale: wie kann man die Kontrolle über die eigenen Daten wieder gewinnen? Bernhard Rieder thematisiert die Schwierigkeit zu definieren, was „personal data“ überhaupt sind. Sind es alle Daten, die aufgrund von user-Aktivität entstehen? Man müsste dann sicher zwischen direkten Daten (d.h. bewusst erzeugte Daten wie z.B. user generated content) und indirekten Daten (z.B. log-files die Auskunft über Nutzung von Website geben) unterscheiden. Doch wie sieht es beispielsweise mit Netzwerk-Daten aus? Ist die Tatsache, dass Person X eine gewisse Zentralität in einem Netzwerk hat noch „personal data“? Zudem Hinweis auf Technologien, die Grenzen aufweichen, z.B. wenn man sich via Facebook-login auch in andere Netze einklinken kann. Viele Apps sind zudem data leaks. Er zeigte sehr interessante Visualisierungs-Tools. David Leanerts spricht über das Vorgehen, wenn eine Firma ein System für access rights einrichten will. Die Vorgehenslogik ist klassisch: zuerst ein Überblick gewinnen, welche Daten überhaupt vorhanden sind (oft wissen das Firmen gar nicht), access-Szenarien entwickeln, einheitliche Kontaktperson bestimmen, Guidelines machen etc. Janneke Sloetjes berichtet von einer niederländische Website, die Anfragen über persönliche Daten bei Firmen automatisch generiert. Will man aber wirklich herausfinden, was Firmen über einem wissen, muss man sehr viel Zeit investieren, was die wenigsten tun. Ein Gedanke: wenn die Firma sehr Mühe hat, diese Daten zu finden, heisst was vielleicht auch, dass gar kein Mechanismus zur routinemässigen Suche dieser Daten vorhanden ist. Fordert man access rights, dann fordert man implizit auch die Einrichtung solcher Systeme, die dann erst das Datenschutzproblem darstellen. Steve Woods spricht über seine Erfahrungen als Datenschutzbeauftragter in Grossbritannien. In der Regeln fragen Leute nur dann an, wenn sie schlechte Erfahrungen gemacht haben (z.B. Kreditverweigerung). Sonst interessieren sich die Leute nicht dafür.

Panel zu wearable sensors: Anne Wright unterscheidet zwischen self-tracking und other-tracking – ihr Thema ist ersteres, auch aufgrund einer persönlichen Erfahrung: Gesundheitliche Probleme, die die Ärzte nicht in den Griff bekommen konnten. Erst durch self-tracking hat sie die entsprechenden Zusammenhänge erkannt (und dabei auch, dass die Ratschläge der Ärzte kontraproduktiv waren). Self-tracking wird somit zu einem Instrument, mit dem Leute Gesundheitsprobleme (oder auch chronische Krankheiten wie Diabetes) besser verstehen können. Ermittelbare Faktoren sind Körpergewicht, kardiovaskuläre Daten, Schlaf, Bewegung etc. Vorteile: Umgang mit Individualität und Kontext, sowie ein Instrument, um self-efficcy und agency zu erhöhten. Das kann ein mächtiges Instrument im Gesundheitswesen werden, sollte man genauer untersuchen. Prüfe ihre website: https://fluxtream.org. Annibale Biggeri gibt einen Überblick über social network, social media und portable sensor epidemiology. Das dürften mächtige Instrumente werden und auch eine neue Form von aktiver Integration von Patienten in Forschung erlauben. Es werden diverse Paper in diesem Bereich vorgestellt. Ein interessantes Thema: Position von Rauchern in sozialen Netzwerken: 1970 waren sie im Zentrum (Knotenpunkte), heute sind sie an der Peripherie. Überwacht man Gruppen hat man schnellere Erkennung von Grippeepidemien als bei einer zufälligen Überwachung von Einzelpersonen. Barbara Prainsak nennt einige interessanten Paper: Watson 2013: you are your data (slate); Kang et al. 2012: Self-surveillance privacy (Iowa Law Review). Sie forschte zu Solidarität und Privacyim Kontext von genetischen Datenbanken (Papers nachschauen): Leute wollen nicht immer wieder informed consent geben. Kann man das auch auf Daten von wearable sensors übertragen? Unklar, denn es gibt keine zentrale Instanz (wie die genetische Datenbank).

Textversion für blinde und sehbehinderte Personen © 2018 goleon* websolutions gmbh