25.06.2024 | Öffentlicher Vortrag

Die Moral der Maschine

Können und müssen autonome Fahrzeuge ethische Entscheidungen treffen? Dazu berichtet Edmond Awad, Gründer von „The Moral Machine“, am 27. Juni an der ÖAW von einem ungewöhnlichen Experiment. Erste Einblicke gibt er im Interview. 

Selbstfahrende Autos müssen zahllose Entscheidungen treffen - mitunter auch ethische. © AdobeStock

Kennen Sie "The Moral Machine"? Das ist eine Plattform, die moralische Dilemmata in einem spielähnlichen Format online stellt: Nutzer:innen müssen für ein fahrerloses Auto über den Ausgang eines Unfalls entscheiden, ob beispielsweise zwei Passagiere des Fahrzeugs oder fünf Fußgänger:innen getötet werden sollen. Das wissenschaftliche Projekt, das 2016 am Massachusetts Institute of Technology Media Lab startete, wurde von Edmond Awad mitbegründet. Es sammelte Daten zu 40 Millionen Entscheidungen von drei Millionen Menschen weltweit. 

Am 27. Juni erzählt Awad live im Rahmen der Konferenz „Narratives of Digital Ethics“ an der Österreichischen Akademie der Wissenschaften (ÖAW) von dem Experiment und den daraus gewonnenen Erkenntnissen. Im Web-Interview schildert Awad, wie Maschinen mit moralischen Entscheidungssituationen umgehen - und welche universellen moralischen Präferenzen wir Menschen haben.

Maschinen übernehmen Verantwortung

Das wissenschaftliche Projekt „The Moral Machine“ will die Öffentlichkeit in die moralischen Entscheidungen einbeziehen, die autonome Autos treffen müssen. Was war die Idee hinter dem Projekt, das Sie 2016 mitbegründet haben?

Edmond Awad: Der Plan war ein doppelter: Zum einen ging es darum, Daten zu sammeln. Wir wollten verstehen, welche Faktoren tatsächlich die Meinung der Menschen darüber beeinflussen, was Autos tun sollten, wenn es um moralische Kompromisse geht. Zum anderen wollten wir die Öffentlichkeit für das große Thema der moralischen Entscheidungen von Maschinen sensibilisieren und auf die Möglichkeit aufmerksam machen, dass Maschinen die Verantwortung für moralische Entscheidungen übernehmen könnten.

Warum ist es Ihrer Meinung nach so wichtig, die Menschen in die Diskussion über selbstfahrende Autos einzubeziehen?

Awad: Es stärkt unsere Demokratie und Freiheit, wenn die Menschen sich einbringen und ihre Meinung sagen können. Sie in die Diskussion einzubeziehen, ist auch deshalb wichtig, weil es eine moralische Verpflichtung geben könnte, selbstfahrende Autos auf den Straßen zuzulassen, nämlich dann, wenn sie sich als sicherer erweisen und weniger Unfälle verursachen als Autos, die von Menschen gesteuert werden. Allerdings könnte die Akzeptanz aufgrund psychologischer Barrieren gering sein. Es lohnt sich daher, diese Barrieren zu verstehen und herauszufinden, wo die Diskrepanz zwischen Politik und öffentlicher Meinung liegt.

Selbst wenn fahrerlose Autos am Ende viel sicherer sind als bisher, was ist, wenn 90 Prozent ihrer Unfälle Radfahrer:innen betreffen? Ist es dann in Ordnung, sie auf die Straße zu lassen?

„The Moral Machine“ bewegt sich in einer Grauzone, die wir normalerweise zu vermeiden versuchen. Was kann ein Spiel zur Lösung schwieriger moralischer Fragen beitragen?

Awad: Das eigentliche Problem ist, wie fahrerlose Autos und Maschinen im Allgemeinen unsere Werte verändern. „The Moral Machine“ war eine vereinfachte Version dieses Problems. Stellen Sie sich einen Richter vor, der in seinen Entscheidungen voreingenommen ist - das kann eine individuelle oder eine systematische Voreingenommenheit sein. Maschinelles Lernen automatisiert die Entscheidungen von Maschinen, die in diesem Beispiel auf den Entscheidungen dieses Richters basieren könnten. Maschinen können diesen Effekt sogar noch verstärken und eine solche Voreingenommenheit verschlimmern. Im Fall von fahrerlosen Autos haben Menschen, die selbst fahren, vielleicht eine gewisse Voreingenommenheit gegenüber Radfahrer:innen oder Fußgänger:innen - aber wenn diese Voreingenommenheit schließlich in diese automatisierten Autos eingebaut wird, wird die Situation noch schlimmer. Selbst wenn fahrerlose Autos am Ende viel sicherer sind als bisher, was ist, wenn 90 Prozent ihrer Unfälle Radfahrer:innen betreffen? Ist es dann in Ordnung, sie auf die Straße zu lassen, nur weil sie so viel besser sind?

Zum Beispiel wurden in den meisten Ländern Frauen mehr gerettet als Männer und jüngere Menschen mehr als ältere.

Sie haben mit Ihrem Forschungsprojekt den bisher größten Datensatz zur Maschinenethik zusammengetragen. Welche Gemeinsamkeiten und Unterschiede zwischen Ländern und Branchen haben Sie festgestellt?

Awad: Wir haben verschiedene Aspekte getestet, wie Alter, Geschlecht, Fitnesslevel und sozialen Status. Manche Antworten sind fast universell. Zum Beispiel wurden in den meisten Ländern Frauen mehr gerettet als Männer und jüngere Menschen mehr als ältere. Die Unterschiede in den Präferenzen für die Rettung junger und alter Menschen waren jedoch von Land zu Land verschieden. Hier kommen kulturelle Aspekte ins Spiel. In ostasiatischen Ländern oder im Nahen Osten beispielsweise war dieser Unterschied weniger ausgeprägt (obwohl er immer noch in die gleiche Richtung ging). Es gibt einige kulturelle Studien, die zeigen, dass ältere Menschen in der östlichen Welt mehr respektiert werden. Sei es, weil die Familienstruktur stärker ist oder weil man glaubt, dass ältere Menschen eine Art Weisheit besitzen.

Die Rolle des Rechtsstaates

Gibt es weitere soziale Gemeinsamkeiten in der Welt?

Awad: Wir haben unter anderem einen Zusammenhang zwischen der Vorliebe für Regelkonformität in einem Land und der Rechtsstaatlichkeit festgestellt, also inwieweit das Gesetz in einem Land respektiert und befolgt wird. In einigen Ländern ist die Rechtsstaatlichkeit sehr stark ausgeprägt, z.B. in Deutschland oder Japan. In diesen Ländern neigt man dazu, die Gesetzestreuen auf Kosten der Gesetzesbrecher zu schonen. Auf der anderen Seite gibt es Länder, in denen der Rechtsstaat nicht so stark ausgeprägt ist, wie zum Beispiel im Nahen Osten oder in Lateinamerika. In diesen Ländern erscheint die Bestrafung von Gesetzesbrechern als eine unverschämt harte Strafe, z.B. für das Überqueren der Straße.

Und inwieweit ändert sich die Moral mit der Zeit?

Awad: Die Moral ändert sich im Laufe der Zeit, und eine Form davon ist das, was manche den „sich erweiternden moralischen Kreis“ nennen. Während Praktiken wie das Töten von Tieren für den Sport oder als Nahrungsmittel in vielen Ländern heute noch üblich sind, könnten künftige Generationen diese Handlungen schockierend finden und kaum glauben, dass sie einmal akzeptiert wurden.

Expert:innen gehen heute davon aus, dass vollständig autonome Autos (die in allen Situationen und Umgebungen gut fahren können) nicht vor 2035 verfügbar sein werden.

Wie sehen Ihre Zukunftspläne für „The Moral Machine“ aus?

Awad: Die Website ist immer noch aktiv und hat täglich viele Besucher:innen. Es wäre interessant zu untersuchen, wie sich die Wahrnehmung der Menschen im Laufe der Zeit verändert und entwickelt hat. Der Bereich der automatisierten Fahrzeuge ist sehr volatil, auf den anfänglichen Medienhype folgen Enttäuschungen und angepasste Erwartungen.

Ihre Prognose: Wann werden selbstfahrende Autos Realität?

Awad: Selbstfahrende Autos basieren auf Deep-Learning-Modellen, die aus historischen Daten lernen, aber beim Autofahren gibt es viele unvorhersehbare und neue Situationen, wie zum Beispiel einen umstürzenden Baum oder ein Erdbeben. Die derzeitige Technologie hat Schwierigkeiten, mit diesen neuen Ereignissen umzugehen, da sie sich nicht an völlig neue Szenarien anpassen kann. Expert:innen gehen heute davon aus, dass vollständig autonome Autos (die in allen Situationen und Umgebungen gut fahren können) nicht vor 2035 verfügbar sein werden, da die Technologie noch nicht in der Lage ist, aus neuen Erfahrungen zu lernen, wie es der Mensch beim Fahren tut.

 

Auf einen Blick

Edmond Awad ist Senior Research Fellow am Oxford Uehiro Centre for Practical Ethics und am Wellcome Centre for Ethics and Humanities der Universität Oxford. Er ist außerdem Senior Lecturer an der Fakultät für Wirtschaftswissenschaften und am Institut für Datenwissenschaft und künstliche Intelligenz an der Universität Exeter.

Bei der Konferenz „Narratives of Digital Ethics“ der Österreichischen Akademie der Wissenschaften (ÖAW) und des Wiener Wissenschafts-, Forschungs- und Technologiefonds (WWTF) hält er die Keynote.                    

„Narratives of Digital Ethics“

27. bis 28. Juni 2024
Österreichische Akademie der Wissenschaften, Festsaal
Dr. Ignaz Seipel-Platz 2, 1010 Wien

PROGRAMM

Anmeldung