Grün Technologie

So leicht lässt sich Teslas Autopilot verarschen

Tesla, Tesla Model Y, Tesla Autopilot
Eine Kette am Lenkrad genügt, um den Autopilot von Tesla zu verwirren. (Foto: Screenshot / Consumer Reports)
geschrieben von Christian Erxleben

Der Tesla Autopilot suggeriert den Fahrer:innen schon alleine durch den Namen, dass komplett autonomes Fahren ohne menschliches Zutun möglich ist. Das ist natürlich nicht der Fall. Tatsächlich ist das Assistenzsystem von Tesla sehr leicht auszutricksen. Das offenbart ein Test.

Zwei Tote nach Tesla-Unfall in Texas

In der Nacht vom 17. auf den 18. April 2021 starben im US-Bundesstaat Texas bei einem Unfall zwei Personen. Ein Model S von Tesla ist in einem Waldstück in einer Kurve von der Straße abgekommen und hatte anschließend Feuer gefangen. Die Insassen hatten keine Überlebenschance.

Das Spannende daran: Die Einsatzkräfte können zu „fast 100 Prozent“ ausschließen, dass ein Fahrer hinter dem Lenkrad des Tesla saß.

Das wirft Fragen auf. War der Tesla Autopilot aktiviert? Tesla-Chef Elon Musk widerspricht offiziell. Die verfügbaren Daten würden nicht zeigen, dass der Autopilot aktiviert war.

Außerdem stellte Musk erneut klar, dass sich das Assistenzsystem ohne Spurlinien überhaupt nicht aktivieren lässt. Und diese Kennzeichnungen auf der Straße hätten in Texas gefehlt. Deshalb sei es unmöglich, dass der Autopilot von Tesla aktiv gewesen sei.

Tesla Autopilot erkennt nicht, ob ein Fahrer am Steuer sitzt

Tatsächlich sind Zweifel an den Aussagen von Elon Musk durchaus berechtigt. So hat die Verbraucherschutzplattform Consumer Reports im Anschluss an den Unfall untersucht, wie leicht es ist, den Autopilot von Tesla in die Irre zu führen. Das Ergebnis ist schockierend.

Eine Metallkette mit Gewicht und ein eingesteckter Gurt

Nach dem Start hatte Tester Jake Fisher das Auto zunächst auf 30 Km/h beschleunigt und anschließend den Autopiloten genutzt, um das Auto über ein entsprechendes Panel am Lenkrad zum Stehen zu bringen.

Als das Auto stand, befestigte Fisher eine Metallkette mit einem Gewicht am Lenkrad, um eine Hand zu simulieren. Das Gewicht sollte dem einer Hand entsprechen und das Lenkrad nicht in eine Richtung steuern.

Anschließend kletterte Jake Fisher auf den Beifahrersitz, ohne sich abzuschnallen. Mit einem Fuß über dem Bremspedal beschleunigte Fisher den Tesla auf einer sicheren Teststrecke ohne Verkehr und Passanten über das Steuerrad am Lenkrad auf 30 Km/h – und das vom Beifahrersitz aus.

Der Tesla Autopilot ist kein Autopilot

Das Experiment und das dazugehörige Video veranschaulichen, wie leicht es ist, den Tesla Autopilot auszutricksen. Während des gesamten Tests gab das Auto keine Warnsignale ab. Es hatte schlichtweg nicht bemerkt, dass keine Person auf dem Fahrersitz gesessen hatte.

Deshalb erscheinen die Aussagen von Elon Musk nach dem tödlichen Unfall in Texas auch äußerst zweifelhaft. Der Autopilot von Tesla ist eben kein Autopilot, sondern in seinem jetzigen Zustand mit Blick auf die Sicherheit ein mittelmäßiges Fahrassistenzsystem.

Zum Vergleich: Das „Super Cruise System“ von General Motors nutzt beispielsweise eine integrierte Kamera, um zu überwachen, ob sich der Fahrer auf die Straße konzentriert und ob er überhaupt am Steuer sitzt.

Braucht der Autopilot einen neuen Namen?

Tatsächlich warnt Tesla seine Nutzer:innen. Der Autobauer empfiehlt, die Augen während der Fahrt auf die Straße zu richten und die Hände die gesamte Zeit am Lenkrad zu behalten.

Schließlich ist mit dem Autopilot nur das autonome Fahren der Stufe 2 möglich. Das heißt: Der Fahrer muss seine Hände eben am Steuer behalten und die Augen auf die Straße richten.

Nichtsdestotrotz nutzen viele Tesla-Besitzer:innen die Schwachstellen des Systems gnadenlos aus. Sie filmen sich beispielsweise dabei, wie sie auf der Autobahn auf dem Beifahrersitz schlafen, während das Auto mit 130 Km/h die Straße entlang fährt.

Das Experiment, die Unfälle und die privaten Videos verdeutlichen: Tesla suggeriert mit seinem Autopilot eine Sicherheit, die es nicht gewährleisten kann. Deshalb ist eine Umbenennung des Systems essenziell, um weitere tödliche Unfälle und leichtsinnige Aktionen zu verhindern.

Auch interessant:

Über den Autor

Christian Erxleben

Christian Erxleben ist seit Ende 2017 Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig. Durch seine Arbeit im Social-Media- und Marketing-Ressort der INTERNET WORLD Business, am Newsdesk von Focus Online und durch sein Journalismus-Studium sowie sein redaktionelles Volontariat hat er in den Bereichen der Redaktion und des Social Media Managements mehrjährige, fundierte Erfahrung gesammelt. Beruflich und privat beschäftigt er sich mit Social Media, New-Work-Konzepten und persönlicher Entwicklung.

2 Kommentare

  • Süss, wie selektiv man berichtet. Ebenso lässt sich ein Travel Assist von VAG überlisten. Man sieht gut, wie verzweifelt die deutsche Presse im Moment versucht, irgendwelche Schlammschlachten zu führen und Dinge immer wieder hochzukochen.

    • Guten Tag Herr Müller,

      in diesem Artikel steckt überhaupt keine Verzweiflung. Vielmehr zeige ich objektiv eine Untersuchung auf und weise auf die Gefahren der Namensgebung hin. Tatsächlich freue ich mich darüber, dass Tesla eine Revolution ausgelöst hat!

      Liebe Grüße und bleiben Sie gesund
      Christian

Kommentieren