Tesla, Tesla Model Y, Tesla Autopilot

So leicht lässt sich Teslas Autopilot verarschen

Christian Erxleben
Eine Kette am Lenkrad genügt, um den Autopilot von Tesla zu verwirren. (Foto: Screenshot / Consumer Reports)

Der Tesla Autopilot suggeriert den Fahrer:innen schon alleine durch den Namen, dass komplett autonomes Fahren ohne menschliches Zutun möglich ist. Das ist natürlich nicht der Fall. Tatsächlich ist das Assistenzsystem von Tesla sehr leicht auszutricksen. Das offenbart ein Test.

Zwei Tote nach Tesla-Unfall in Texas

In der Nacht vom 17. auf den 18. April 2021 starben im US-Bundesstaat Texas bei einem Unfall zwei Personen. Ein Model S von Tesla ist in einem Waldstück in einer Kurve von der Straße abgekommen und hatte anschließend Feuer gefangen. Die Insassen hatten keine Überlebenschance.

Das Spannende daran: Die Einsatzkräfte können zu „fast 100 Prozent“ ausschließen, dass ein Fahrer hinter dem Lenkrad des Tesla saß.

UPDATE Newsletter BASIC thinking

Du willst nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 Vordenker bekommen jeden Tag die wichtigsten News direkt in die Inbox und sichern sich ihren Vorsprung.

Nur für kurze Zeit: Anmelden und mit etwas Glück Apple AirPods gewinnen!

Mit deiner Anmeldung bestätigst du unsere Datenschutzerklärung. Beim Gewinnspiel gelten die AGB.

Das wirft Fragen auf. War der Tesla Autopilot aktiviert? Tesla-Chef Elon Musk widerspricht offiziell. Die verfügbaren Daten würden nicht zeigen, dass der Autopilot aktiviert war.

Außerdem stellte Musk erneut klar, dass sich das Assistenzsystem ohne Spurlinien überhaupt nicht aktivieren lässt. Und diese Kennzeichnungen auf der Straße hätten in Texas gefehlt. Deshalb sei es unmöglich, dass der Autopilot von Tesla aktiv gewesen sei.

Tesla Autopilot erkennt nicht, ob ein Fahrer am Steuer sitzt

Tatsächlich sind Zweifel an den Aussagen von Elon Musk durchaus berechtigt. So hat die Verbraucherschutzplattform Consumer Reports im Anschluss an den Unfall untersucht, wie leicht es ist, den Autopilot von Tesla in die Irre zu führen. Das Ergebnis ist schockierend.

Eine Metallkette mit Gewicht und ein eingesteckter Gurt

Nach dem Start hatte Tester Jake Fisher das Auto zunächst auf 30 Km/h beschleunigt und anschließend den Autopiloten genutzt, um das Auto über ein entsprechendes Panel am Lenkrad zum Stehen zu bringen.

Als das Auto stand, befestigte Fisher eine Metallkette mit einem Gewicht am Lenkrad, um eine Hand zu simulieren. Das Gewicht sollte dem einer Hand entsprechen und das Lenkrad nicht in eine Richtung steuern.

Anschließend kletterte Jake Fisher auf den Beifahrersitz, ohne sich abzuschnallen. Mit einem Fuß über dem Bremspedal beschleunigte Fisher den Tesla auf einer sicheren Teststrecke ohne Verkehr und Passanten über das Steuerrad am Lenkrad auf 30 Km/h – und das vom Beifahrersitz aus.

Der Tesla Autopilot ist kein Autopilot

Das Experiment und das dazugehörige Video veranschaulichen, wie leicht es ist, den Tesla Autopilot auszutricksen. Während des gesamten Tests gab das Auto keine Warnsignale ab. Es hatte schlichtweg nicht bemerkt, dass keine Person auf dem Fahrersitz gesessen hatte.

Deshalb erscheinen die Aussagen von Elon Musk nach dem tödlichen Unfall in Texas auch äußerst zweifelhaft. Der Autopilot von Tesla ist eben kein Autopilot, sondern in seinem jetzigen Zustand mit Blick auf die Sicherheit ein mittelmäßiges Fahrassistenzsystem.

Zum Vergleich: Das „Super Cruise System“ von General Motors nutzt beispielsweise eine integrierte Kamera, um zu überwachen, ob sich der Fahrer auf die Straße konzentriert und ob er überhaupt am Steuer sitzt.

Braucht der Autopilot einen neuen Namen?

Tatsächlich warnt Tesla seine Nutzer:innen. Der Autobauer empfiehlt, die Augen während der Fahrt auf die Straße zu richten und die Hände die gesamte Zeit am Lenkrad zu behalten.

Schließlich ist mit dem Autopilot nur das autonome Fahren der Stufe 2 möglich. Das heißt: Der Fahrer muss seine Hände eben am Steuer behalten und die Augen auf die Straße richten.

Nichtsdestotrotz nutzen viele Tesla-Besitzer:innen die Schwachstellen des Systems gnadenlos aus. Sie filmen sich beispielsweise dabei, wie sie auf der Autobahn auf dem Beifahrersitz schlafen, während das Auto mit 130 Km/h die Straße entlang fährt.

Das Experiment, die Unfälle und die privaten Videos verdeutlichen: Tesla suggeriert mit seinem Autopilot eine Sicherheit, die es nicht gewährleisten kann. Deshalb ist eine Umbenennung des Systems essenziell, um weitere tödliche Unfälle und leichtsinnige Aktionen zu verhindern.

Auch interessant:

Du möchtest nicht abgehängt werden, wenn es um KI, Green Tech und die Tech-Themen von Morgen geht? Über 12.000 smarte Leser bekommen jeden Tag UPDATE, unser Tech-Briefing mit den wichtigsten News des Tages – und sichern sich damit ihren Vorsprung. Hier kannst du dich kostenlos anmelden.

STELLENANZEIGEN
Content Creator (m/w/d) Schwerpun...
Steinau KG in Arnsberg
Junior Marketing Manager (m/w/d) – Schw...
Bayerisches Pilgerbüro gGmbH in München
SEO Lead (m/f/x)
Rebuy Recommerce GmbH in Berlin
Frontend Software Engineer (f/m/div.)
Bosch Gruppe in Renningen
Data Engineer (f/m/div.)
Bosch Gruppe in Renningen
Social Media Strategist (m/w/d)
BANSBACH GMBH in Stuttgart
Backend Software Engineer (f/m/div.)
Bosch Gruppe in Renningen
Praktikant*in Corporate Social Media (Pflicht...
Mercedes-Benz AG in Stuttgart
Teile diesen Artikel
Christian Erxleben arbeitet als freier Redakteur für BASIC thinking. Von Ende 2017 bis Ende 2021 war er Chefredakteur von BASIC thinking. Zuvor war er als Ressortleiter Social Media und Head of Social Media bei BASIC thinking tätig.