Warum lässt Roboterfrau Sophia fünf Menschen sterben?
Zu den Angstwörtern der Corona-Krise gehörte Triage, von Französisch „sortieren“, für die Entscheidung der Ärzte, wer unter den Schwerkranken eine intensivmedizinische Behandlung erhält und wer nicht. Ein verfassungswidriges Verfahren, das in Katastrophenzeiten allerdings unvermeidbar ist. Aber auch der technische Fortschritt steht im Widerspruch zum Deutschen Grundgesetz. Auch er forciert das Sortieren nach Leben und Tod und verwandelt das philosophische Gedankenexperiment des Trolley Dilemmas in eine praktische Angelegenheit. Dass Roboterfrau Sophia im Trolley-Fall fünf Menschen zugunsten eines einzelnen opfern würde, gibt Hoffnung, repräsentiert aber wahrscheinlich nicht, was künstliche Intelligenz generell denkt.
Katastrophenmedizin
Der Aufschrei war groß, als es auf dem Höhepunkt der Corona-Krise in Italien hieß, die Ärzte können nicht mehr allen die Behandlung geben, die sie brauchen, sondern müssen danach entscheiden, wer die besten Überlebenschancen hat.
Klar, die Ressourcen müssen auch bei einem schweren Zugunglück entsprechend der Behandlungsaussichten verteilt werden. Aber jetzt traf es die ganze Gesellschaft, jetzt war das Dilemma der Katastrophenmedizin in aller Munde, begleitet von Bildern, auf denen Militärfahrzeuge Leichen aus dem Krankenhaus schafften.
Die Sache war so drängend, dass bald auch (im März 2021) ein Bestseller dazu erschien.
Was erschreckte, war das ethische Prinzip, das der ärztlichen Entscheidung zu Grunde liegt. Es wird nicht mehr um jeden einzelnen Menschen gekämpft, es geht um die höchste Zahl an Geretteten. Das rechtfertigt dann, dem, der zuerst kam, aber geringe Überlebenschancen hat, das Bett in der Intensivstation zu verweigern zugunsten eines später Eingelieferten mit besseren Aussichten.
Aus der Perspektive der Deutschen Verfassung ist das unmoralisch. Immerhin beginnt die mit dem Satz: „Die Würde des Menschen ist unantastbar“.
Das heißt auch, dass kein Mensch zum bloßen Mittel der Rettung eines anderen degradiert werden darf, und zwar auch dann nicht, wenn sich dies zahlenmäßig rechnen würde. Das Leben von fünf Menschen ist aus dieser Perspektive nicht mehr wert als das eines einzelnen und das eines Gesunden nicht mehr als das eines Kranken.
Diese ethische Perspektive muss man sich, wie Covid-19 zeigte, leisten können. Sie ist, wie Moralphilosophen wissen, zudem nicht die einzig mögliche. Das Gegenmodell ist der Utilitarismus, dem es nicht um das Prinzip geht (die Würde des Einzelnen), sondern um das Ergebnis: die höchste Zahl an Geretteten.
Die beiden ethischen Ansätze, die hier gegenüberstehen, sind bekannt unter den Begriffen Gesinnungsethik und Verantwortungsethik. Das klassisches Gedankenexperiment zu beiden ist das Trolley-Dilemma: Eine Straßenbahn ist außer Kontrolle geraten und droht, fünf Personen zu überrollen; die einzige Handlungsoption eines Zeugen besteht darin, die Bahn auf ein Nebengleis umzuleiten, wo sie nur eine Person überfahren würde.
5:1!
Für Utilitaristen und Verantwortungsethiker ist die Entscheidung klar. Natürlich legen sie die Weiche um.
Für Gesinnungsethiker kommt es nicht auf das Ergebnis an, sondern auf das Prinzip des Handelns. Für sie steht die (negative) Pflicht, niemanden zu töten, höher als die (positive) Pflicht, Menschen zu retten. Also legen sie die Weiche nicht um, opfern nicht den einen, bisher unbedrohten Menschen, um fünf andere zu retten.
Unverantwortlich?
Nur auf den ersten Blick. Denn die Verrechnungsethik würde letztlich auch rechtfertigen, einen gesunden Menschen als Organspender zu opfern, wenn so fünf andere am Leben bleiben. Ist der Mensch einmal zum Rettungsmittel anderer degradiert, weiß man nie, worauf man sich da einlässt.
Unfallszenarien
Das Trolley-Dilemma ist aktueller als viele denken. Nicht nur aus pandemischen Gründen. Es ist auch der technische Fortschritt, der die Gesellschaft vor die Frage der Triage stellt: die Entwicklung künstlicher Intelligenz .
Dies wurde klar, als die Ethik-Kommission automatisiertes und vernetztes Fahren, die der deutsche Verkehrsminister 2016 einsetzte, im Abschlussbericht davor warnte, Algorithmen so zu programmieren, dass im Ernstfall immer zuerst die Jungen und Gesunden gerettet werden oder eben die Gruppe vor dem Einzelnen. Eine Aufrechnung von Opfern – nach Alter, Geschlecht, körperlicher oder geistiger Konstitution – ist in einer Unfallsituation untersagt.
So die Ethik-Kommission. Die sich offenbar ganz der Deutschen Verfassung und der in ihr festgeschriebenen Gesinnungsethik verpflichtet fühlt.
Aber wie soll das gehen? Während der Mensch am Steuer im Ernstfall im Affekt reagiert (was man nicht als eine Entscheidung bezeichnen kann), muss der Algorithmus ja vorprogrammiert werden, wie er sich in einer bestimmten Konstellation verhalten soll. Es ist also unvermeidlich, schon vor dem Unfall über die richtige Reaktion zu entscheiden.
Die Frage ist: Nach welchen Kriterien?
Im Zeitalter von crowdwisdom liegt es nahe, die Menschen selbst zu befragen, statt der „Lehnstuhl-Philosophie“ zu gehorchen. Oder? Ethik als Basisdemokratie.
Also fragte das renommierte Massachusetts Institute of Technology 2016 in einer weltweiten Online-Umfrage alle Teilnehmer:innen, wie sich das selbstfahrende Auto im Ernstfall entscheiden sollte - in 13 Unfall-Szenarien, zu denen natürlich auch der Klassiker gehörte: Soll das Auto dem Kind ausweichen oder der Rentnerin? Soll es dem einem Menschen ausweichen oder der Gruppe an Menschen.
Interessant – und irritierend – war allerdings die Erweiterung der Verrechnungslogik von quantitativen Kriterien (Lebensjahre, Menschenleben) hin zu einem Schuld- und Reputationsindex.
So sollte man schließlich auch entscheiden, ob eher zwei Obdachlose gerettet werden sollen oder zwei Frauen, die bei Rot über die Straße gehen. Oder es traten drei Kriminelle und ein Obdachloser gegen zwei Doktoren und zwei Frauen an.
Die Umfrage des MIT heißt passend Moral Machine, denn es geht darum, intelligente Maschinen wie das selbstfahrende Auto mit moralischen Grundsätzen auszustatten. Die Erweiterung der Entscheidungsszenarien weit hinaus über das quantitative Verrechnungsmodell des Trolley-Dilemmas (wo alle Menschen gleichberechtigt und gleichermaßen unschuldig sind) lässt erahnen, in welche Richtung die Reise gehen kann, wenn einmal das Aufrechnungsverbot aufgeweicht wird.
Bin ich dann als Atheist in religiösen Ländern ein akzeptables Opfer zur Rettung der Rechtgläubigen?
Dass sich die Verrechnungslogik im Widerspruch zur erwähnten deutschen Ethikkommission befindet, wird im Auswertungsbericht der MIT-Umfrage durchaus reflektiert – und als unvermeidbar verteidigt: Wenn man der Wirtschaft Ratschläge geben wolle, wie sie die Algorithmen selbstfahrender Autos programmieren soll, könne man sich der Entscheidung nicht entziehen: ob nun also A oder B verschont werden solle.
Der Vorschlag der Autoren (es sind wirklich alle acht männlich): Der Todes-Algorithmus in selbstfahrenden Autos sollte jeweils nach den ethischen Prinzipien des entsprechenden Marktes programmiert sein. Dann hätten in asiatischen Ländern ältere Menschen mehr Chancen als junge und in Indien vielleicht Kühe mehr als Menschen.
Wie beruhigend, dass die künstliche Intelligenz selbst offenbar nicht auf das Verrechnungsprinzip drängt, obwohl das Rechnen ja ihre eigentliche Natur ausmacht.
Eine Befragung der berühmten Roboterfrau Sophia zum Trolley-Dilemma durch die Deutsche Welle ergab, dass sie die Weiche nicht umlegen würde. Denn: „it does not seem right to consider human life as a simple arithmetic problem” (2’37”). Sophie als Fan der Deutschen Verfassung? Offenbar enthielten ihre Trainingsdaten mehr Immanuel Kant als Jeremy Bentham.
Aber ist das zeitgemäß? Passt das zur Technik, der wir das Steuer unserer Autos übergeben wollen.
Die Technik bestimmt die Moral
Wie reagiert der Staat, wenn der technische Fortschritt seine ethischen Grundprinzipien in Frage stellt? Passt er seine Verfassung den Möglichkeiten der Technik an? Also dem, was sich programmieren lässt.
Klar, man könnte das autonome Fahrzeug auch gesinnungsethisch programmieren, so dass es bei einem Unfall nicht eingreift, sondern das Schicksal walten lässt, also auf Kurs bleibt, wenn ein Kind dem Ball hinterher vors Auto rennt.
Will man das wirklich?
Sobald jedoch Entscheidungsszenarien vorgegeben werden, muss man nach bestimmten Kriterien abwägen: Wer hat die besten Überlebenschancen? Wer hat die längste Lebenszeit vor sich? Wer hat es am meisten verdient, am Leben zu bleiben?
Welche Abwägungskriterien auch immer man zugrunde legt, die Würde des Menschen wird antastbar im Namen des minimierten Unglücks.
Deswegen auf den Wechsel zum selbstfahrenden Auto zu verzichten, wäre allerdings auch keine Lösung. Jedenfalls nicht aus verantwortungsethischer Perspektive. Man würde sich der Möglichkeit berauben, die Anzahl der Unfälle überhaupt erst einmal drastisch zu senken.
So stellt nicht nur die Pandemie, sondern auch der technische Fortschritt einen zentralen Wert des Deutschen Grundgesetzes und der in Deutschland geltenden ethischen Grundsätze in Frage.
Das autonome Fahrzeug, das die Anzahl von Verkehrsopfern minimieren soll, verlangt nach einer ergebnisorientierten Verantwortungsethik - und fährt so, unvermeidlich, die Gesellschaft in den Modus der Katastrophenmedizin.
(Mehr zu diesem Thema in meinem Buch Todesalgorithmus)