BT

Ein selbstfahrendes Auto überfährt eine Fußgängerin. Die andere Sichtweise. [Kommentar]

geschrieben von Mark Kreuzer

In den USA hat ein Auto einen Fußgänger überfahren. Das ist tragisch, ohne jede Frage. Und, ebenso tragisch: Allein in den USA sterben jeden Tag mehr als 100 Menschen im Straßenverkehr, darunter ungefähr 16 Fußgänger.

Das besondere an dem aktuellen Fall: Es saß kein Mensch am Steuer, sondern eine Maschine. Also, bei genauer Betrachtung saß ein Mensch hinter dem Steuer – der ist aber nicht gefahren, sondern war ein Sicherheitsfahrer, das Auto wurde von einem Computer gesteuert.

Nachdem klar war, dass es sich um ein sogenanntes „selbstfahrendes Auto“ gehandelt hat, das in den Unfall verwickelt war, ist ein wahrer Orkan von Aufmerksamkeit losgetreten wurden. Wie in unserer Zeit leider üblich wird in solchen Fällen nicht abgewartet, bis alle Daten ausgewertet wurden. Stattdessen wird jede neue Information sofort in die Welt posaunt und alle mögliche Experten melden sich umgehend zu Wort. Ich persönlich denke, das wir in einer Hype-Gesellschaft leben. Das heißt, wir schwingen uns von Hype zu Hype. Der Sensationshunger der Meute ist unersättlich und die Medien versuchen sich gegenseitig zu übertreffen. Dabei bleiben Fakten gerne mal auf der Strecke bzw. ändern sich.

Im Fall des tödlichen Unfalls in Tempe (Arizona) hat es in den vergangen beiden Tagen ein Hin und Her von sich teilweise widersprechenden Informationen gegeben. Schon der Umstand, dass sich die Geschwindigkeit, mit dem das Fahrzeug zum Zeitpunkt des Unfalls angeblich unterwegs war, im Laufe der Stunden von 45mph auf35 mph auf ~40mph verändert hat zeigt, wie schwierig es ist, bei diesem Ereignis die Übersicht zu behalten.

Bin ich ein Arschloch?

Diese Frage habe ich mir gestellt, nachdem ich den Artikel von Bernd auf unserem Blog gelesen habe. Über (nicht) “autonome” Autos, völlig überforderte Behörden, Medien und “Technikversteher“. Dort kommt er unter anderem zu diesem Fazit:

Das Fazit ist: Die Frau ist tot, und sie müsste es definitiv nicht sein. Wer sie als tragisches, aber eben “notwendiges” Opfer auf dem Weg zu einem sicheren Straßenverkehr für Viele betrachtet ist ein Zyniker, um nicht zu sagen: ein Arschloch. Zieht euch den Schuh gerne an, wenn er passt.

Ich persönlich stimme mit vielen Ansichten von Bernd in seinem Artikel nicht überein. Bei dem Fazit musste ich kurz in mich gehen und noch einmal reflektieren, ob ich deshalb ein Arschloch bin.

In jedem Fall finde ich es bedauerlich, dass die Frau bei dem Unfall gestorben ist. Aber genau so bedauerlich finde ich eigentlich jeden Unfall mit Todesfolge. Aber in Anbetracht der Tatsache, dass jeden Tag tödliche Unfälle im Straßenverkehr passieren – und, seien wir mal ehrlich, das ist bei weitem nicht das Schlimmste, was bei uns auf der Welt jeden Tag passiert – kann ich diesem Unfall keinen besonders erhöhten Stellenwert zukommen lassen.

Ja natürlich ist es was Besonderes, dass diesmal ein Computer das Fahrzeug gesteuert hat. Anscheinend treibt viele Medien deshalb zur Zeit besonders eine Frage an:

Wer hat denn nun Schuld ?

Ich möchte an dieser Stelle festhalten, dass die Schuldfrage noch nicht endgültig geklärt ist. Im Moment wird der schwarze Peter munter zwischen Auto, Fußgänger und Testfahrer hin und hergeschoben. Eigentlich habe ich lange um dieses Ereignis einen Bogen machen wollen, zumindest bis ein endgültiges Ergebnis der Untersuchungen vorliegt.

Das Auto?

Tatsächlich bin auch ich sehr verwundert, dass das Auto den Unfall nicht verhindert hat. Ich bin sehr gespannt, was bei den Untersuchungen als Ergebnis herauskommt, denn es dürfte sich um einen der am besten dokumentierten Unfälle dieser Art handeln. Das Auto wird noch eine ganze Reihe an weiteren Daten haben, die bis jetzt noch nicht ausgewertet wurden.

Der Sicherheitsfahrer?

Oft habe ich in den vergangenen Tagen gelesen, dass dem menschlichen Fahrer die Schuld gegeben wird. Ich kann mir kaum vorstellen, dass der Fahrer die Frau gesehen hat (oder erst zu spät). Denn egal wie „autonom“ das Testfahrzeug auch ist: Als jemand, der selbst oft genug teilautonome Fahrzeugen fährt, bin ich mir sicher, dass kein Mensch tatenlos sein Auto auf einen Unfall zusteuert. Mir ist natürlich klar, dass man als Mensch leicht ablenkbar ist, aber das ist ein Risiko, dass wir alle im Straßenverkehr akzeptieren. Vielleicht hätte der Fahrer den Fußgänger sehen können, in dem Video wirkt es so als ob er mit dem Radio beschäftigt wäre. Eine Situation die jeder von uns wahrscheinlich selber schon mal erlebt hat. Hier müsste man auf jeden Fall die Frage klären, ob ihn daher eine (Mit-)Schuld trifft.

Die Fußgängerin?

Auch erwähnen will ich die Fußgängerin, die eventuell eine Mitschuld treffen könnte. Denn: Sie hat die Straße nicht an einem Fußgängerübergang überquert. Ich selbst und viele unserer Leser haben so etwas bestimmt auch schon mal gemacht. Wenn ich eine Straße überquere, wo ich es eigentlich nicht darf, würde ich persönlich mich immer extrem beeilen und nie davon ausgehen, dass das Auto mich schon sehen wird.

Juristische Abwägung

Wenn dieser Unfall einem Menschen passiert wäre, würde dieser Fall bei uns mindestens als „Fahrlässige Tötung“ betrachtet. In Deutschland würde ist das der §222 StGB:

Wer durch Fahrlässigkeit den Tod eines Menschen verursacht, wird mit Freiheitsstrafe bis zu fünf Jahren oder mit Geldstrafe bestraft.

Nach Rücksprache mit einem Juristen habe ich erfahren, dass dies bei einem unbescholtenen Bürger in vergleichbaren Fällen meist mit einer Strafe auf Bewährung oder einer Geldstrafe bestraft wird. Ich könnte mir gut vorstellen, dass dieser Ansatz bei dem konkret verwendeten System auch angewendet werden könnte.

Was lernen wir daraus?

Mich persönlich ärgert es enorm, dass ich mich in den Strudel der Schuldfrage, aus dem ich mich eigentlich heraushalten wollte, nun doch noch mit ‚reingezogen wurde. Denn erst der Abschluss der Untersuchung wird zeigen, was genau passiert ist. Alles vorher sind nur Mutmaßungen.

Viele Experten sind jetzt schon der Ansicht, dass die Schuldfrage geklärt sei und berufen sich nach aktueller Faktenlage darauf, alles deute darauf hin, dass das Auto die Schuld trage. Ich finde diese absoluten Aussagen sehr gewagt. Erst wenn alle Sensordaten ausgewertet werden, können wir uns ein endgültiges Bild machen. Ich erwähnte ja schon zuvor, dass ich verwundert bin, dass das Auto den Unfall nicht verhindert hat. Es ist eigentlich nahezu unmöglich, dass die Kombination von Sensoren – allem voran LIDAR und Radar – die Fußgängerin nicht registriert haben sollen. Jedes System für sich selbst sollte dazu bereits in der Lage sein. Daher bleiben für mich noch einige Fragen offen, warum genau es zu dem Unfall gekommen ist.

Ich persönlich kann mich auf keinem Fall der Meinung anschließen, dass jetzt weitere Testfahrten von anderen ähnlichen System gänzlich untersagt werden sollten. Es ist absolut richtig, dass Uber seine Testfahrten eingestellt hat. Aber aufgrund eines Unfalls kann man jetzt nicht eine ganze Technologie in Sippenhaft nehmen. Mit dieser Einstellung würden wir heute nämlich wohl kaum in ein technisches Fortbewegungsmittel einsteigen, egal ob Flugzeug, Zug oder Fahrstuhl.

Auch die Aussage, dass man noch viel mit Simulationen arbeiten müsse, bevor die Autos auf die Straße dürften erscheint mir nicht sinnvoll. Das wahre Leben passiert nicht in einer Simulation, bzw. kaum eine Simulation wird meiner Ansicht nach in der Lage sein, alle möglichen Szenarien zu erfassen. Trotz einer hohen Anzahl von Simulationen kann es in technischen Systemen zu einer Verkettung von extrem unwahrscheinlichen Problemen kommen, die in der Summe dann zu einem großen Ereignis führen. Damit möchte ich nicht andeuten, dass man mit Simulationen aufhören sollte.

Ich kann mir kaum vorstellen, dass die Entwickler die Möglichkeit von Fußgängern im Straßenverkehr nicht berücksichtigt haben. Daher bin ich gespannt, was bei den Untersuchungen herauskommt und was man daraus lernen wird. Aber: Dies wird sicher nicht der letzte tödliche Unfall eines autonomen Fahrzeuges sein. 100%-ige Sicherheit wird es niemals geben. Deshalb bin ich der Meinung, die Technik sollte auch weiterhin im Straßenverkehr benutzt werden.

Über den Autor

Mark Kreuzer

18 Kommentare

  • Also, ich bin ziemlich deine Meinung.
    Als ich dieses Video gesehen habe, habe ich mich sofort gefragt, wenn die Frau die Strasse an so einen dunklen Ort mit einen Fahrrad (Stossen) überquert, sollte Sie 1. Auf die Verkehr achten da es Dunkel ist, 2. Keine Fussgängerstreifen hat und 3. Sie gefälligst nicht so seelenruhig (langsam) über die Strassen läuft! Wenn ich Ausserorts die Strassenüberquere, während (in der Schweiz) hier Autos mit 80kmh hin und her fährt, dann laufe ich auch nicht im Schnecken Tempo über die Strasse!

    • Der Ort wird wohl heller sein, als auf dem Video zu sehen. Da gibt es noch ein paar andere Videos (u.a. in dem Artikel von Bernd) auf denen man das sieht.

      Das Verhalten von der Fußgängerin gibt mir aber auch einige Rätsel auf.

    • Nun da war 50 die Straße relativ leer und es ist nunmal gelebte Realität, dass Fußgänger mal unaufmerksam sind. MIr sind schon Leute vor den RTW gestiefelt trotz Blaulicht und Martinshorn – ohne Kopfhörer o.ä., schauen aber wie ein Eichhörnchen wenn sie dann realisieren, dass gerade knapp 4 Tonnen 20 cm vor ihnen grad noch so halten.

      Nur kann man sowas bis zu einem gewissen Maß „riechen“ und vorsichtshalber langsamer machen. Das ist m.E. etwas, das gerade innerorts viele Unfälle verhindert aber nie von Technik ersetzt werden kann.

  • Lassen wir die Auswertung und das zukünftige Untersuchungsergebnis in diesem Fall mal ganz außen vor. Was mich persönlich MASSIV stört, ist die Tatsache, dass eine *offensichtlich* im Beta-Studium befindliche Technik auf die Allgemeinheit losgelassen wird. Wohlgemerkt, eine Technik, die ein zwei Tonnen schweren SUV durch die Gegend bugsiert. Kein speziell ausgelegtes Leichtmobil mit speziell konzipiertem Prallschutz und speziellen Warnleuchten (denn es ist zum jetzigen Zeitpunkt schlicht zu erwarten gewesen, dass die Technik eben NICHT fehlerfrei funktioniert, weswegen zusätzliche passive Sicherheitsmaßnahmen eigentlich verpflichtend sein sollten – ob es in diesem Fall geholfen hätte sei ebenso dahingestellt, in genügend anderen Fällen funktioniert passive Sicherheit). Es ist mindestens so klar, dass sich Menschen in teilautonomen und vermeintlich vollautonomen Fahrzeugen nach einiger Zeit allem Möglichem widmen und Sekunden brauchen, um dann plötzlich eine Situation zu erfassen und zu reagieren. Das dann „Sicherheitsfahrer“ zu nennen ignoriert schlicht die menschliche Psychologie und Physiologie. Somit paart sich letztendlich in einem vermeintlich autonomen 2 Tonnen SUV mit „Sicherheitsfahrer“ Naivität und Fahrlässigkeit mit Ignoranz.

    Insbesondere wird mir Übel, wenn ich an die „Ich-Bezogenheit“ der Teilnehmer der Autoindustrie denke. D.h. Verkehr, das sind zu allererst die Autos. Fußgänger und, ganz schlimm, Radfahrer, kommen, weil sie ja so unberechenbar und schwierig zu emulieren sind, an zweiter Stelle.

    Mit anderen Worten: die autonomen Fahrversuche machen völlig Unbeteiligte
    zu ungewollten und ahnungslosen Beta-Testern, lebenden Pylonen. Den zukünftigen Gewinn
    sammeln die Hazardeure ein, den Blutzoll zahlt die Allgemeinheit. Zum Kotzen.

    • Komisch das es dich nicht stört, dass jeden Tag Fußgänger / Radfahrer von Menschen überfahren werden? Sind die Fahrer-Menschen auch im Beta-Status?

      Mir ist klar, dass das was überspitzt ist, aber die Autonomen Autos werden bestimmt nicht auf aggressives Verhalten programmiert. Das heißt sie halten sich wahrscheinlich deutlich besser an die Regeln und fahren rücksichtsvoller als die meisten Menschen.

      • An Regeln allein zu halten wird aber nicht zu einem Verkehrsverhalten führen das kompatibel zu unserer heutigen Verkehrserfahrung ist. Die heutigen Unfallzahlen sind das Ergebnis von gegenseitiger Toleranz gegenüber Fehlern die jeder Verkehrsteilnehmer begeht.
        Jeder muss sich zugestehen die eine oder andere brenzlige Situation verursacht zu haben die durch die Toleranz und rechtzeitiges defensives oder abwendendes Verhalten des Verkehrspartner entschärft worden ist. Wenn in diesen Situationen „regelkonform“ agiert wird werden die Statistiken schnell zeigen das der Paragraph 1 eine essentielle Lebenserfahrung ist. Die humanoiden Verkehrsteilnehmer werden sich schnell anpassen an die mangelne oder andersartige Toleranzverhalten. In diesem Sinne ist ein erkennbar anderes Äussere oder Signalisierung von Vorteil.
        Der vorherige Unfall mit einem autonomen Uber zeigt auch weder Verletzung von Regeln noch Rücksichtslosigkeit sondern einfach mangelne Einschätzung einer Verdeckungssituation im Kreuzungsbereich mit drei Spuren.
        Als Verkehrsteilnehmer mit Rad/Moto/Auto sind mir verschiedene Perspektiven bewusst und ich bin skeptisch das ein Verkehrsverständnis das Toleranz aushandelt und auf dem weitergehenden Welt-Verständnis als Fahrbahnbegrenzung, Leuchtzeichen und bewegte Objekte basiert nicht mehr unterscheidbar von humanoiden Teilnehmer ist. Im Gegenteil die humanoiden werden sich anpassen an die Automaten, die dann sinnvollerweise anders aussehen.

      • Die Technik zum autonomen Fahren muss es sich aber gefallen lassen, dass sie deutlich besser sein muss wie jeder menschliche Fahrer. Sonst rechtfertigen sich die enormen Kosten gleich zehnmal nicht.

        Und es geht eben darum, dass hier nur aus Kostengründen in der Öffentlichkeit getestet wird, die dem im Zweifel nicht zugestimmt hat.

      • Das heißt sie halten sich wahrscheinlich deutlich besser an die Regeln und fahren rücksichtsvoller als die meisten Menschen.

        Ist das so? Es gibt ja durchaus eine Reihe von (tatsächlichen oder denkbaren) „Regeln“, die alles andere als „rücksichtsvoll“ sind, oder? So gibt es ja unter einigen Entwicklern durchaus den Gedanken, dass ein autonomes Auto bedingungslos, ohne Rücksicht auf Dritte, das Leben der Insassen schützen sollte. Andere präferieren die Ansicht, dass man eine Abwägung nach Zahl der potentiell Verletzten oder Getöteten treffen sollte – gegenüber einem Fußgänger, der gerade auf zwei Fahrzeuginsassen trifft ist das auch nicht besonders „rücksichtsvoll“. Zudem gibt es „Regeln“, die in den kommenden Jahrzehnten keine KI adäquat simulieren kann.

        • Ja das ist so. Ein Autonomes Auto wird nicht schneller als erlaubt fahren. Und jetzt soll jeder mal einen Stein werden, der in seinem Leben noch nie schneller als erlaubt gefahren ist.

      • Sorry, aber solange das „wahrscheinlich“ in Deinem zweiten Satz nicht durch „mit an Sicherheit grenzender Wahrscheinlichkeit“ ersetzt wird, bleibe ich dabei, dass solche Versuche eine maximal erhöhte passive Sicherheit mitbringen müssen. Google hat sein lenkradloses Fahr-Ei seinerzeit sehr stark auf passive Sicherheit ausgelegt, und es (der Grenzen des Möglichen wohl bewusst) nicht in die „Wildnis“ des städtischen Nahverkehrs geschickt. Jahrelang.

        Ich denke es gibt noch sehr viel andere Spielwiese, auf der ein vermeintlich autonomes Auto seine tatsächliche Autonomität beweisen kann.

        Und: es geht hier tatsächlich erst einmal um die Einführung einer neuen Technik, die letztendlich nicht der Allgemeinheit zugute kommen soll, sondern (in diesem Fall) Uber. Das vergleiche ich nicht mit dem Rest des Straßenverkehrs, der (so verbesserungswürdig er sein mag) in einem gesellschaftlichen Konsens entstanden ist (auch wenn man den hier und da überdenken könnte).

  • Wieder einmal wird eine zunehmend wichtigere Gruppe von Verantwortlichen außen vor gelassen: die Software-Entwickler.

    Die ganze Situation erinnert irgendwie an diesen alten Witz:

    Ein Ingenieur, ein Physiker und ein Informatiker fahren zusammen im Auto.
    Plötzlich bleibt das Auto stehen.
    Da sagt der Ingenieur: „Das liegt bestimmt am Benzin, das wir vorhin getankt haben!“
    Der Physiker entgegnet: „Nein, da ist mit Sicherheit die Zylinderkopfdichtung defekt.“
    Darauf sagt der Programmierer: „Also, wir steigen jetzt einfach alle aus, warten ein paar Sekunden, steigen dann wieder ein und dann geht’s schon wieder!“

    Irgendwie wurden wir von der Software-Industrie in den letzten Jahrzehnten dazu erzogen, die Fehler in den Produkten nicht in der Software zu suchen. Der nächste Patch wird schon alles wieder richten, oder? Stellt sich raus, dass es eben Dinge gibt, die man nicht durch nachträgliche Korrekturen wieder hin bekommt.
    Wenn mal ein Programm abstürzt, dann ist das für den Anwender ärgerlich, der gerade ein paar Seiten tollen Text getippt hat ohne zu speichern, aber das ist quasi eine Kleinigkeit. Nun geht es um Menschenleben und die gleichen Entwicklungsprozesse werden angewandt?

    Wir leben in interessanten Zeiten. Passt auf euch auf!

    • Der Witz ist gut 🙂

      Ich denke das die Entwicklungsprozesse bei einem selbst fahrenden Auto deutlich anders als die von einer App sind.

      Aber ich gebe dir Recht, dass es spannend wird was die Untersuchungen rausbringen werden. Ob man den Entwicklern einen Vorwurf machen kann/wird/muss oder ob es an der Hardware lag.

      • Ob man den Entwicklern einen Vorwurf machen kann/wird/muss oder ob es an der Hardware lag.

        Ich muss da noch einmal nachhaken: Sollte es einen Defekt an der Hardware gegeben haben, hätte der doch von der Software sofort registriert werden müssen, woraufhin wiederum der autonome Betrieb des Fahrzeugs unverzüglich unterbunden hätte werden müssen? Das ist doch elementar bei diesen Fahrzeugen? Mein vier Jahre alter Nissan weist mich darauf hin, wenn meine Reifendrucksensoren einen „kritischen“ Luftdruck melden.

        • Siehst du und genau weil ich keine Lust auf diese Diskussion habe, will ich mich zu dem Thema nicht weiter äußern was passiert. ist.

          Ich warte ab bis das finale oder ein vorläufiges offizielles Ergebnis ist. Und im Artikel habe ich bereits geschrieben, ich bin verwundert, dass der Unfall nicht vermieden wurde.

  • Eins vorab: Grundsätzlich stimme ich deinem Kommentar mehr zu als dem von Bernd Rubel. Ich habe dort schon in der Diskussion schon darauf hingewiesen, dass bei Fahrzeugen im Prototypenstatus zumindest hierzulande nur Fahrer ans Steuer dürfen, die ein entsprechendes Training und Sensibilisierung durchlaufen haben. Dabei wird auch auf die Gefahren durch Ablenkung hingewiesen. Wie auch bei jedem Fahrsicherheitstraining bei ADAC und Konsorten. Alleine schon ein Gespräch beim Hindernisparcours führt dazu dass man dann halt die Wassersäule durchfährt … und das ist ja erstmal nur der hier vorliegende Fall „False Negative“. Stellen wir uns mal andere Fehlfunktionen vor bei denen die Software meint das Lenkrad auf „scharf rechts“ zu reißen, bei Tempo 120. Wer da mit dem Radio spielt tötet sich effektiv selbst und gefährdet andere. Wenn sowas in Serie kommt müssen diese Fälle zuverlässig verhindert werden, und zwar von der Technik selbst, Stichwort ISO26262. Davor trägt aber genau die Person die Verantwortung, die den Versuch im öffentlichen Straßenverkehr durchführt.

    Ehrlich gesagt halte ich es für keinen Zufall, dass hier gerade Uber involviert ist. Der Laden stellt sich als über dem Gesetz stehen dar und wirft jede Sorgfalt und Verantwortung über Bord, zugunsten eines fragwürdigen Verständnisses von „Fortschritt“, getrieben von einem Zeitplan bei dem man als Entwickler nur den Kopf schütteln kann. Ich habe an der Stelle einen Vortrag eines Entwicklers bei Mobileeye gehört, der sich kritisch mit den Möglichkeiten von KIs auf Basis von Deep Learning und Expertensystemen in unterschiedlichen Ausprägungen auseinandersetzt. AFAIK verfolgt Uber einen der Ansätze, die gerade Google populär gemacht hat, und zwar den des Deep Learning – nur auf einem extremeren Level um schneller zu werden. Deep Learning hat nach Mobileeye ein enormes Potential, aber auch extreme Schwächen im Konzept; Bzw. ignoriert sie im Hause „Uber“ zugunsten von schnellen Ergebnissen.

  • Du bist also ernsthaft der Ansicht eine Software die bewiesen hat, dass sie im öffentlichen Straßenverkehr den schlimmsten aller Fehler aufweist, weiterhin zu benutzen?

    Und das ohne jede Not? Gerne verweise ich auf meinen Kommentar zum ersten Beitrag zu dem Thema – aber wie kommt man zu der anmaßenden Aussage in diesem Bereich müsse man in der realen Welt testen wenn offensichtlich die naheliegenste SItuation nicht erkannt wird?

    Dann muss man eben aufs Testgelände, alles andere ist ein Schlag ins Gesicht all jener die es anständig machen und viel Geld dafür ausgeben das zu testen. Und diese Rechnung kann ich nicht der Allgemeinheit aufdrücken – die hat nämlich erstmal nicht unbedingt einen Nutzen davon.