Textversion für blinde und sehbehinderte Personen sitemap
Home Textraum Hochzeit Arbeit Forschung encyclog

Weg vom «Killer-Roboter»

Mit mörderischer Präzision jagen bewaffnete, autonome Kleindrohnen Menschen. Dieses Video des amerikanischen «Future of Life Institute» ist Ausdruck der sich verstärkende internationale Debatte zur Regulierung so genannter «Lethal Autonomous Weapon Systems» (LAWS), wozu sich jüngst Experten und Regierungsvertreter in Genf getroffen haben. Ein von Nichtregierungsorganisationen angestrebtes Verbot von LAWS wurde am Treffen nicht ausgesprochen – zu viele grundlegende Fragen sind offen. Doch ist der Fokus auf «Killer-Roboter» hilfreich, um die relevanten ethischen Fragen autonomer Technologien zu diskutieren?

Vom Standpunkt der Kampagne-Organisationen, ist diese Frage zu bejahen. Man bedient sich des reichen Fundus dystopischer Science-Fiction sowie Grundängsten des Kontrollverlustes. Sie führen dem Menschen drastisch vor Augen, was ihm blühen könnte, wenn Maschinen die Macht übernehmen. Doch so eingängig das Bild ist: es verzerrt die Problemlage und lenkt von wichtigeren ethischen Fragen ab, welche die Anwendung autonomer Technologien im Militär und anderswo stellt.

Der autonome «Killer-Roboter» führt die Debatte in dreifacher Hinsicht auf eine falsche Fährte. Erstens sind die technischen Probleme, die für das Erreichen umfassender Autonomiefähigkeiten gelöst werden müssen, enorm komplex – Fragen stellen sich aber bereits bei den jetzt verfügbaren Technologien. Zweitens müssen aber diese Fähigkeiten vorhanden sein, damit LAWS völkerrechtskonform eingesetzt werden können. Ansonsten würden die Systeme Grundprinzipien des Kriegsrechts verletzen, wie die Zuschreibung moralischer und rechtlicher Verantwortung an Individuen. Drittens wären LAWS mit hochautonomen Fähigkeiten selbst für die Streitkräfte, die sie einsetzen wollten, ein grosses Risiko, weil sie schwer kontrollierbar wären. Das oben genannte Video manifestiert diese Probleme: die «Killer-Drohnen» sind nicht umfassend autonom, weil Menschen die «Zielvorgabe» machen – hier mit kriminellen Motiven, weil Andersdenkende ausgeschaltet werden. Und die Systeme entgleiten der Kontrolle, was sie für Streitkräfte unattraktiv macht.

Diese Punkte sprechen auch nicht gegen den Einsatz von Automatisierung im militärischen Kontext. Cruise-Missiles oder automatisierte Abwehrsysteme gegen Raketen oder Granaten sind längst Alltag – doch Menschen setzen die zentralen Parameter. Dies dürfte sich auf absehbare Zeit nicht ändern, solange es um Entscheidungen geht, die das Töten von Menschen direkt zur Folge haben. Entsprechend sollte sich die ethische Debatte rund um die Nutzung autonomer Technologien im Sicherheitsbereich (und anderswo) auf zwei Punkte konzentrieren: die Interaktion von Mensch und Maschine im Fall letaler Systeme und den nichtletalen Fall.

Zu ersterem muss festgehalten werden, dass die Beibehaltung menschlicher Entscheidungskompetenz in LAWS die ethischen Probleme nicht ohne weiteres löst. Technische Systeme mit autonomen Fähigkeiten wie z.B. Lernfähigkeit werden – nicht nur im militärischen Bereich – zunehmend zur Entscheidungsunterstützung genutzt. Die ethische Beurteilung der Entscheidungen, die von Konglomeraten menschlicher und maschineller Intelligenz gefällt werden, wird durch zahlreiche Faktoren erschwert. Beispiele sind die Art und Weise, wie Informationen dem menschlichen Entscheider präsentiert werden oder die psychologische Distanzierung des Entscheiders vom Problemkontext.

Bei nichtletalen Systeme ist die Hemmschwelle für den Einsatz autonomer Technologie tiefer – doch die fehlende Bewaffnung reduziert die Brisanz ethischer Fragen nicht. Beim Militär ist vorab die Cybersecurity zu nennen, wo aufgrund rascher Reaktionszeiten und hoher Komplexität der zu schützenden (bzw. der anzugreifenden) Systeme autonome Technologien vermehrt zum Einsatz kommen werden. Die zunehmende Abhängigkeit kritischer Infrastruktur von digitalen Technologien macht es wahrscheinlicher, dass Menschen zu Schaden kommen. Zudem werden technische Systeme mit autonomen Fähigkeiten vorab im zivilen Bereich entwickelt werden – man denke etwa an das autonome Fahren. Das Dual-Use-Problem – also die militärische Nutzung zivil entwickelter Systeme – ist hier inhärent und insbesondere bezüglich des Missbrauchs solcher Technologien relevant. Anders als reguläre Streitkräfte haben terroristische Organisationen keine Probleme mit Völkerrechts-Konformität oder Kontrollverlust. Diese Organisationen haben ein Interesse, die im Killer-Drohnen-Video gezeigten Systeme einzusetzen. Um das zu verhindern, wäre ein völkerrechtliches Verbot von LAWS kein geeignetes Mittel. Stattdessen brauchen wir eine verstärkte Debatte darüber, wie das Zusammenspiel von Menschen und zunehmend autonomer Technik zu Entscheidungen führt, die ethisch akzeptabel sind.

 

 

Textversion für blinde und sehbehinderte Personen © 2019 goleon* websolutions gmbh