Tesla-Autopilot: Das Assistenzsystem von Elon Musk bremst auch für Cheeseburger

Verwechselt Teslas Autopilot tatsächlich Werbung mit Stoppschildern? Wie Forscher herausgefunden haben, lassen sich die Fahrassistenzsysteme ganz leicht austricksen.
Be’er Scheva (Israel) – Teslas Autopilot wird immer wieder gelobt – vor allem von Fans des kalifornischen Elektroauto-Herstellers von Elon Musk. Der Fahrassistent bremse vorschriftsmäßig an Ampeln und Stoppschildern oder gewährt ordnungsgemäß die Vorfahrt. Er weiche auch bei Nacht Tieren oder Passanten aus und entschärfe scheinbar mühelos Situationen, die sonst womöglich zu Unfällen geführt hätten.
Doch genauso oft werden die Assistenzsystem aus dem Hause Tesla heftig für ihre – nach wie vor zahlreich vorhandenen – Mängel kritisiert. Nicht immer führen diese zu einer unmittelbaren Gefahr. Manchmal sind sie auch einfach nur lustig – und doch ein großes Problem für die Entwickler autonomer Fahrzeuge. Eine besonders kuriose Fehlfunktion deckte nun das aktuelle Video eines Tesla-Fahrers auf.
Tesla-Autopilot: Das Assistenzsystem von Elon Musk bremst auch für Cheeseburger
Der Tesla-Besitzer fährt im Osten des US-Bundesstaats North Carolina auf dem Highway 74 vom Städtchen Clyde kommend in Richtung Waynesville. Als er sich einem an der Straße gelegenen Einkaufszentrum nähert, passiert plötzlich etwas Merkwürdiges: Der Autopilot des Tesla Model 3 erkennt das Stoppsignal einer Verkehrskontrolle und beginnt, das Elektrofahrzeug runterzubremsen. (Tesla-Autopilot: Elon Musk kündigt spektakulären Beta-Test an – doch es gibt einen Haken)
Weit und breit ist jedoch weder ein Stoppschild zu sehen – noch ein Polizeifahrzeug. Die Künstliche Intelligenz (KI) von Teslas Assistenzsystem scheint einfach nur Heißhunger zu haben: Das Tesla Model 3 bremst nämlich für ein Werbeschild der Fastfood-Kette Burger King.
Natürlich blieb das seltsame Verhalten von Elon Musks Fahrassistenten auch der findigen Social-Media-Abteilung des Fastfood-Franchise-Unternehmens nicht verborgen. Wie das Portal „Futurezone“ schreibt, bastelte Burger King umgehend eine Marketing-Aktion daraus. Im eigenen Videoclip der Burgerbrater heißt es: „Smarte Autos sind smart genug, um für einen Whopper zu bremsen.“ (Tesla Model Y: Besitzer deckt neue Pfusch-Konstruktion mit Baumarktteilen auf)
Tesla-Autopilot: „Phantombilder“ israelischer Forscher stoppen Tesla Model X
Wie Forscher der Ben-Gurion-Universität des Negev in der südisraelischen Stadt Be’er Scheva nachweisen konnten, ist es mit der KI der Fahrassistenzsysteme manchmal nicht so weit her – oft lassen sich diese kinderleicht austricksen. Eine Achillesferse der modernen Assistenzsysteme, die schon bald vollständig autonomes Fahren ermöglichen sollen, sind nämlich sogenannte „Phantombilder“. (Neuer Tesla Model Y: Glasdach macht Abflug – gleich am ersten Tag)
Ironischerweise kommt auch hier wieder Fastfood ins Spiel. Für ihre Tests bauten die israelischen Forscher ein „Phantombild“ in einen Werbespot des Unternehmens McDonald‘s ein. Für Sekundenbruchteile war in dem Clip, der eigentlich einen Bacon-Burger anpries, ein rotes Stoppschild zu sehen. Anschließend wurde das Werbevideo auf einer digitalen Anzeigetafel gezeigt, die neben der für die Tests genutzten Straße stand. Im Rahmen ihres Versuchs beschreiben die Forscher dies als Szenario, indem jemand solche Werbetafeln hackt, um die Videoanzeigen zu verändern. (Autonomes Fahren: Tesla-Assistenzsystem im Test weit abgeschlagen)
Wie die Forscher herausfanden, reichte ein kurzes Aufflackern des digitalen Stoppschildes für nur 0,42 (!) Sekunden, um sowohl den Autopiloten HW 2.5 als auch HW 3 eines Tesla Model X immer wieder zuverlässig zum Narren zu halten: Das E-Auto hielt regelmäßig mitten auf der Straße an. Ein Fahrassistent der israelischen Intel-Tochter Mobileye war noch leichter hereinzulegen: Das Mobileye 630 zeigte sich bereits durch ein 0,125 Sekunden zu sehendes Bild des Stoppschildes derart irritiert, dass es das Testfahrzeug ausbremste. Wie die Forscher veröffentlichten, lassen sich die Assistenzsysteme auch durch die Projektion eines virtuellen Fußgängers oder Pkw ablenken. (Tesla: Überschätzt sich Elon Musk? Er prophezeit gigantische Produktionszahlen)
Tesla-Autopilot: Droht sogar Terror-Gefahr durch kriminelle Hacker-Angriffe?
Im Anschluss an ihre Studien verständigten die israelischen Forscher sofort die Firmen Tesla und Mobileye. Sie befürchten, Kriminelle könnten sich das Phänomen der „Phantombilder“ zunutze machen. Den Israelis zufolge handelt es sich um gravierende Sicherheitslücken: Es gehe dabei nicht um kleinere Bugs – sondern um grundlegende Fehler in der Programmierung der Assistenzsysteme. Diese ließen sich nicht durch einen simplen Patch oder ein Update beheben. Die Autopiloten und Fahrassistenten könnten nicht zwischen gefälschten und echten Objekten unterscheiden. (Qualitätsprobleme beim Model Y: Worüber sich Tesla-Kunden massiv beschweren)
„Ein Angreifer strahlt nur ein Bild von etwas auf der Straße aus oder schummelt ein paar Bilder in eine digitale Werbetafel, und der Autopilot des Autos bremst oder weicht möglicherweise sogar aus – und das ist extrem gefährlich“, zitiert das Portal „Wired.com“ den Wissenschaftler Yisroel Mirsky. Die Forscher der Ben-Gurion-Universität weisen darüber hinaus darauf hin, dass derartige Cyber-Attacken im Nachhinein keinerlei physische Beweise hinterließen.