Autounfall

Mit der „Moral Machine“ über Leben und Tod im Straßenverkehr entscheiden

Ekki Kern
von Ekki Kern

Wie soll ein intelligentes Fahrzeug im Straßenverkehr agieren? Nach menschlich-moralischen Maßstäben? Oder eher doch kühl-berechnend und auf möglichst wenige Opfer bedacht? Dass die Entscheidung nicht immer leicht fällt, zeigt ein Projekt, das das renommierte MIT gestartet hat.

Im vergangenen Jahr ist viel geschrieben worden über autonome Fahrzeuge. Auch die Unfälle des fahrerlosen Autos von Google haben dazu beigetragen, dass über das Thema nun auch jenseits professioneller Fachzirkel diskutiert wird.

Wer muss sterben? Noch hat der Mensch die Wahl, in Zukunft vielleicht die Maschine... (Bildquelle: moralmachine.mit.edu)
Wer muss sterben? Noch hat der Mensch die Wahl, in Zukunft vielleicht die Maschine… (Bildquelle: moralmachine.mit.edu)

Eines steht fest: Ein Teil der Debatte sollte ethischen Gesichtspunkten gewidmet sein, also auch der Frage, wie sich ein sogenanntes intelligentes Fahrzeug verhalten soll, wenn ein Unfall offenbar unabwendbar ist.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück 50€ Amazon-Guthaben gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Dass sich aus solchen Situationen schwierige Fragestellungen ergeben können, ist klar. Berühmt ist das Beispiel um die Entscheidung, ob die führerlose Maschine lieber ein (auf der Straße spielendes) Kind oder eine (korrekt auf dem Fußgängerweg spazierende) ältere Dame umfahren soll.

Die „Moral Machine“ fragt den Menschen

Das Massachusetts Institute of Technology (MIT) hat mit der „Moral Machine“ eine Website gebaut, auf der man als Nutzer und Mensch entscheiden soll, wer in konkreten Verkehrssituationen und im Fall eines unabwendbaren Unfalls umgefahren wird. Stets bleiben einem zwei Wahlmöglichkeiten.

Man möchte mit dem Experiment Daten darüber gewinnen, wie Menschen in einem moralischen Dilemma entscheiden, schreibt das Institut auf seiner Website:

This website aims to take the discussion further, by providing a platform for 1) building a crowd-sourced picture of human opinion on how machines should make decisions when faced with moral dilemmas, and 2) crowd-sourcing assembly and discussion of potential scenarios of moral consequence.

Wer sich selbst testen möchte, kann das tun, direkt hier.

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Openstack Engineer (m/f/d)
CompuGroup Medical SE & Co. KGaA in Koblenz
Marketing Specialist /Content Creator (m/w/d)...
C.F. Maier Firmengruppe in Königsbronn
Social Media Manager & Content Creator (m...
SOLARWATT GmbH in Dresden
Online-Marketing-Spezialist mit Erfahrung (m/...
KULLEN-KOTI GmbH in Reutlingen
Working Student: Social Media Content Creator...
Rebuy Recommerce GmbH in Berlin
Social Media Manager (w/m/d) für den Bereich ...
Cannamedical Pharma GmbH in Köln
Senior Channel Manager E-Commerce (w/m/d)
heo GmbH in Herxheim bei Landau in der Pfalz
Senior Content Manager / Creator (m/w/d) für ...
Cannamedical Pharma GmbH in Köln
THEMEN:
Teile diesen Artikel
Folgen:
Ekki ist Medienjournalist und probiert Technologien gerne aus, entdeckt dabei aber nicht selten die Vorzüge des Analogen. Diskutieren über das alles kann man mit ihm ganz hervorragend, für die Zeitung schreibt er über Medien und Verbraucherthemen, privat für seinen Watchblog Radiowatcher.