Hochschulkommunikation

News

Das moralische Dilemma des autonomen Fahrens

Es klingt wie einem Zukunftsroman entsprungen: Die Eingabe einer Adresse im Bordcomputer reicht aus und das Fahrzeug fährt selbstständig zum gewünschten Zielort. Ampeln oder Spurwechsel stellen keine Probleme dar. Ebenso mühelos gelingt die Suche eines passenden Parkplatzes, in den sich das Auto eigenständig hineinmanövriert – menschliche Unterstützung oder Kontrolle sind nicht mehr erforderlich. Autonomes Fahren verspricht weniger Staus und Parkplatzprobleme, mehr Sicherheit und damit eine stressfreie Art der Fortbewegung. Doch wie sollen sich selbstfahrende Autos bei Unfällen mit unausweichlichen Schäden für Menschen, sogenannten Dilemmasituationen, verhalten?

Professor Dr. Wolfgang Habla lehrt Volkswirtschaftslehre an der DHBW Villingen-Schwenningen und forscht zu moralischen Entscheidungsprozessen in Bezug auf autonomes Fahren. „Der Einsatz neuer Technologien wie etwa selbstfahrender Autos wirft viele ethische Fragen auf. Ihre Nutzung hängt nicht zuletzt vom Grad der Akzeptanz ab, die diesen Technologien seitens der Bevölkerung entgegengebracht wird“, so Habla. „Beeinflusst wird die Akzeptanz wiederum durch ethische Regeln, auf die sich die Gesellschaft hinsichtlich des Gebrauchs der Technologien einigt.“

Gemeinsam mit den Koautor*innen Professor Mitesh Kataria und Professor Peter Martinsson der Universität Göteborg sowie Professorin Dr. Kerstin Roeder von der Universität Augsburg veröffentlichte Habla nun eine Studie zur moralischen Entscheidungsfindung schwedischer Bürger*innen. Als erste ihrer Art unterscheidet die Studie zwischen deontologischen und utilitaristischen Präferenzen im Kontext selbstfahrender Autos.

„Wie sollten Maschinen programmiert werden, um ethische Entscheidungen zu treffen und welchen moralischen Prinzipien sollten diesen Entscheidungen zugrunde liegen?“, fasst der Professor der DHBW die zentralen Fragen der Studie zusammen, in deren Rahmen die Wissenschaftler*innen mehr als 1300 Personen befragten. „Wir führten die Teilnehmenden zunächst in die Thematik der autonomen Fahrzeuge ein. Anschließend konfrontierten wir sie mit zehn unterschiedlichen Szenarien, die sich in der Anzahl der Fußgänger auf der Straße und der Anzahl der Passagiere im Auto unterschieden. Das autonome Fahrzeug geriet dabei in eine Dilemma-Situation der zufolge es entweder die Fußgänger oder die Passagiere retten konnte. Der Schutz beider Gruppen gleichzeitig war nicht möglich.“ Für jedes Szenario sollten die Befragten bestimmen, welche Personengruppe der Algorithmus des Fahrzeugs schützen und welche dem Dilemma zum Opfer fallen sollte.

„Die Ergebnisse offenbaren, dass die Befragten in den meisten Fällen eine utilitaristische Entscheidung des Algorithmus bevorzugten, also die Rettung der größtmöglichen Anzahl von Menschen, unabhängig davon, ob es sich um Fußgänger oder Passagiere handelte“, erklärt Habla. Jedoch würden die Entscheidungen mehrheitlich gleichzeitig dazu tendieren, Fußgänger gegenüber Passagieren zu bevorzugen. Besonders häufig sei dies der Fall gewesen, wenn die Fußgänger keine sozialen Normen missachteten, sie die Straße etwa nur bei einer grünen Ampel überquerten. „Die Teilnehmenden sahen die Fußgänger somit weniger in der Verantwortung für die Entstehung der Dilemma-Situation als die Passagiere des selbstfahrenden Autos. Interessant ist außerdem, dass das Entscheidungsverhalten der Befragten über die Szenarien hinweg nicht konsistent war: Nur vereinzelt bevorzugten Teilnehmende durchweg utilitaristische Entscheidungen oder folgten konsequent einer deontologischen Entscheidungsregel, indem sie eine bestimmte Gruppe wie etwa die Fußgänger schützten.“

Darüber hinaus zeige die Studie, dass ein durchschnittlicher Teilnehmer tendenziell bereit sei, Passagiere zu opfern, solange ihre Anzahl die der Fußgänger nicht deutlich übersteige. „Möglicherweise, weil die Passagiere stärker für die Entstehung der Dilemma-Situation verantwortlich gemacht wurden“, so Habla. Eine Erklärung sieht der Wissenschaftler in der Schwellendeontologie: „Bei dieser Theorie wird eine regelbasierte, also deontologische, Ethik bis zu einem bestimmten Punkt verfolgt, bevor der Wechsel zu einer konsequentialistischen, hier utilitaristischen Ethik wechselt, die Entscheidungen rein nach ihren Konsequenzen bewertet.“ Es zeige sich, dass ein durchschnittlicher Teilnehmer das Leben eines Fußgängers retten möchte, bis das Fahrzeug vier Passagiere enthält, woraufhin die Präferenz zu den Passagieren wechsle. „Bei Übertretung einer sozialen Norm durch diesen einen Fußgänger genügen bereits zwei Passagiere und die Entscheidung ändert sich zugunsten der Passagiere, während bei einem Kind als Fußgänger sechs erwachsene Passagiere zur Verschiebung der Präferenz nötig sind.“

Wie autonome Fahrzeuge zukünftig programmiert werden, stelle eine anspruchsvolle Herausforderung dar, resümiert Habla. „Studien wie diese demonstrieren die Komplexität ethischer Präferenzen in Dilemma-Situationen mit selbstfahrenden Autos. Hier ist noch viel Forschungsbedarf vorhanden.“

dekorative Grafik "autonomes Fahren"
Bild: Pixabay