Wie soll ein intelligentes Fahrzeug im Straßenverkehr agieren? Nach menschlich-moralischen Maßstäben? Oder eher doch kühl-berechnend und auf möglichst wenige Opfer bedacht? Dass die Entscheidung nicht immer leicht fällt, zeigt ein Projekt, das das renommierte MIT gestartet hat.
Im vergangenen Jahr ist viel geschrieben worden über autonome Fahrzeuge. Auch die Unfälle des fahrerlosen Autos von Google haben dazu beigetragen, dass über das Thema nun auch jenseits professioneller Fachzirkel diskutiert wird.
Eines steht fest: Ein Teil der Debatte sollte ethischen Gesichtspunkten gewidmet sein, also auch der Frage, wie sich ein sogenanntes intelligentes Fahrzeug verhalten soll, wenn ein Unfall offenbar unabwendbar ist.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media Manager (m/w/d) in der Nähe von Rosenheim Schön Klinik Vogtareuth GmbH & Co. KG in Vogtareuth |
||
Social Media Advertising Manager (w/m/d) dm-drogerie markt GmbH + Co. KG in Karlsruhe, hybrid |
Dass sich aus solchen Situationen schwierige Fragestellungen ergeben können, ist klar. Berühmt ist das Beispiel um die Entscheidung, ob die führerlose Maschine lieber ein (auf der Straße spielendes) Kind oder eine (korrekt auf dem Fußgängerweg spazierende) ältere Dame umfahren soll.
Die „Moral Machine“ fragt den Menschen
Das Massachusetts Institute of Technology (MIT) hat mit der „Moral Machine“ eine Website gebaut, auf der man als Nutzer und Mensch entscheiden soll, wer in konkreten Verkehrssituationen und im Fall eines unabwendbaren Unfalls umgefahren wird. Stets bleiben einem zwei Wahlmöglichkeiten.
Man möchte mit dem Experiment Daten darüber gewinnen, wie Menschen in einem moralischen Dilemma entscheiden, schreibt das Institut auf seiner Website:
This website aims to take the discussion further, by providing a platform for 1) building a crowd-sourced picture of human opinion on how machines should make decisions when faced with moral dilemmas, and 2) crowd-sourcing assembly and discussion of potential scenarios of moral consequence.
Wer sich selbst testen möchte, kann das tun, direkt hier.
Spannend fände ich auch die Frage: Ist der Computer so programmiert den Fahrer (Insassen) zu schützen oder Fußgänger oder andere Verkehrsteilnehmer? Soll der Insasse unter allen Umständen gerettet werden oder soll dann eher das Kind statt der 60jährige Insasse geschützt werden? Ich fand den Test echt hart 🙁
Ne andere Frage wäre auch: Sollen diese Einstellungen lieber vorprogrammiert sein oder sollte man das als Wagenbesitzer selbst (von Fall zu Fall) auswählen können?
[…] Wen soll eine intelligente Maschine in Form eines künftigen Autos töten, wenn ein Unfall unabwendbar ist? Die Kinder oder die Oma? Es gibt jede Menge moralische Fragen, mit denen wir uns im Zuge der Technologisierung unserer Gesellschaft beschäftigen müssen. Anhand der „Moral Machine“ fragt das MIT bei echten Menschen nach, wie sie in konkreten Verkehrssituationen handeln würden. […]
[…] Rechtlich, versicherungstechnisch und auch praktisch gesehen, wird dies von vielen als die problematischste Stufe der Automatisierung gesehen. Denn wenn man als Insasse nicht fährt, ist man auch schneller abgelenkt. So guckt man vielleicht gerade aus dem Fenster oder auf sein Smartphone, wenn das Auto plötzlich bei einer Geschwindigkeit von 120 km/h den Einsatz des Fahrers verlangt. Wie lange sollen Fahrer Zeit haben, um reagieren zu können? Sollte dieses Limit gesetzlich geregelt werden? Wer ist im Falle eines Unfalls verantwortlich? All das sind Fragen, denen sich sowohl Autobauer als auch die Gesetzgeber wohl bald annehmen müssen. […]