Autounfall

Mit der „Moral Machine“ über Leben und Tod im Straßenverkehr entscheiden

Ekki Kern
von Ekki Kern

Anzeige

Wie soll ein intelligentes Fahrzeug im Straßenverkehr agieren? Nach menschlich-moralischen Maßstäben? Oder eher doch kühl-berechnend und auf möglichst wenige Opfer bedacht? Dass die Entscheidung nicht immer leicht fällt, zeigt ein Projekt, das das renommierte MIT gestartet hat.

Im vergangenen Jahr ist viel geschrieben worden über autonome Fahrzeuge. Auch die Unfälle des fahrerlosen Autos von Google haben dazu beigetragen, dass über das Thema nun auch jenseits professioneller Fachzirkel diskutiert wird.

Wer muss sterben? Noch hat der Mensch die Wahl, in Zukunft vielleicht die Maschine... (Bildquelle: moralmachine.mit.edu)
Wer muss sterben? Noch hat der Mensch die Wahl, in Zukunft vielleicht die Maschine… (Bildquelle: moralmachine.mit.edu)

Eines steht fest: Ein Teil der Debatte sollte ethischen Gesichtspunkten gewidmet sein, also auch der Frage, wie sich ein sogenanntes intelligentes Fahrzeug verhalten soll, wenn ein Unfall offenbar unabwendbar ist.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 10.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Beats-Kopfhörer gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Dass sich aus solchen Situationen schwierige Fragestellungen ergeben können, ist klar. Berühmt ist das Beispiel um die Entscheidung, ob die führerlose Maschine lieber ein (auf der Straße spielendes) Kind oder eine (korrekt auf dem Fußgängerweg spazierende) ältere Dame umfahren soll.

Die „Moral Machine“ fragt den Menschen

Das Massachusetts Institute of Technology (MIT) hat mit der „Moral Machine“ eine Website gebaut, auf der man als Nutzer und Mensch entscheiden soll, wer in konkreten Verkehrssituationen und im Fall eines unabwendbaren Unfalls umgefahren wird. Stets bleiben einem zwei Wahlmöglichkeiten.

Man möchte mit dem Experiment Daten darüber gewinnen, wie Menschen in einem moralischen Dilemma entscheiden, schreibt das Institut auf seiner Website:

This website aims to take the discussion further, by providing a platform for 1) building a crowd-sourced picture of human opinion on how machines should make decisions when faced with moral dilemmas, and 2) crowd-sourcing assembly and discussion of potential scenarios of moral consequence.

Wer sich selbst testen möchte, kann das tun, direkt hier.

🤝 25 Euro geschenkt!

Eröffne jetzt dein kostenloses NIBC Tagesgeld und erhalte bis zu 2,75 Prozent Zinsen auf dein Geld! Und obendrauf gibt's sogar noch 25 Euro geschenkt!


Jetzt Zinsen sichern

Voraussetzungen gelten, Anzeige

STELLENANZEIGEN
Senior SAP Consultant FI/CO (f/m/div.)
Bosch Gruppe in Wetzlar
Intern (m/f/d) in Digital Marketing
Clarios Germany GmbH & Co. KG in Hannover
Vertriebsingenieur (Ingenieur Maschinenbau / ...
a2tec GmbH in Hamburg
Digital Marketing Manager (m/w/d)
Schwer Fittings GmbH in Denkingen
Personalberater (m/w/d)
Ratbacher GmbH - Karriere bei Rat... in Stuttgart, M...
Vehicle Testing Lead (m/f/d)
Clarios Germany GmbH & Co. KG in
Organizational Integration Manager (m/f/d)
Clarios Germany GmbH & Co. KG in
Sales Manager (m/w/d) Online Marketing
Sellwerk GmbH & Co. KG in Düsseldorf, Meerbusch, Kaa...
THEMEN:
Teile diesen Artikel
Folgen:
Ekki ist Medienjournalist und probiert Technologien gerne aus, entdeckt dabei aber nicht selten die Vorzüge des Analogen. Diskutieren über das alles kann man mit ihm ganz hervorragend, für die Zeitung schreibt er über Medien und Verbraucherthemen, privat für seinen Watchblog Radiowatcher.