Die Fortschritte in der autonomen Fahrzeugtechnologie versprechen eine Revolution des Straßenverkehrs. Tesla gilt als Vorreiter auf diesem Gebiet und hat mit seinem Feature Full Self-Driving (FSD) große Erwartungen geweckt. Doch jüngste Tests in Austin, Texas, zeigen eindrucksvoll, dass die Technologie noch lange nicht ausgereift ist und beim Umgang mit Schulbussen möglicherweise katastrophale Fehler macht. Das schlägt Wellen in Deutschland und anderen Ländern, die mit der Regulierung autonomer Fahrzeuge ringen und nach sicheren Lösungen suchen. Die Tests wurden von Organisationen durchgeführt, die Tesla kritisch gegenüberstehen – The Dawn Project, Tesla Takedown und ResistAustin – und sie sind ein Weckruf für jeden, der auf unbeaufsichtigtes Fahren ohne menschliche Kontrolle spekuliert.
In den Versuchen hielt ein Schulbus mit eingeschalteten Warnblinkanlagen und ausgefahrenem Stoppschild an der Straße. Statt zu stoppen, fuhr ein Tesla Model Y mit aktiviertem FSD System wiederholt am Bus vorbei, traf dabei sogar kindgroße Mannequins, die als Schüler simuliert wurden. Die gleiche Szene wurde acht Mal hintereinander wiederholt, jeweils mit demselben erschreckenden Ergebnis. Diese Wiederholung machte deutlich, dass der Fehler nicht auf einen einmaligen Bug oder Zufall zurückzuführen ist, sondern ein systemisches Versagen der Software vorliegt. Tesla selbst kennzeichnet sein FSD als „Full Self-Driving (Supervised)“, was bedeutet, dass der Fahrer jederzeit aufmerksam sein muss und das System überwachen soll.
Das Produkt zeigt Warnhinweise an, die den Fahrer mahnen, eingreifen zu müssen, andernfalls wären schwere Schäden oder sogar Todesfälle möglich. Diese Hinweise wirken jedoch angesichts der gemachten Fehler kaum beruhigend und werfen Fragen zum Entwicklungsstand und der Vermarktungsstrategie auf. In den letzten Jahren hat es bereits mehrere kritische Zwischenfälle mit Teslas FSD gegeben. So wurde im April 2024 ein Tesla Model S, das im FSD-Modus fuhr, in Washington in einen tödlichen Unfall verwickelt, bei dem ein Motorradfahrer ums Leben kam. Solche Vorfälle bestärken die Forderungen nach strengeren Tests, umfassenden Regulierungen und mehr Transparenz seitens Teslas.
Hintergrund dieser Entwicklungen ist auch der bevorstehende Marktstart des vollautonomen Tesla Cybercab, dessen Rollout ursprünglich für den 22. Juni 2025 geplant war. Aufgrund der Sicherheitsbedenken hat Elon Musk, Tesla-CEO, einen vorsichtigen Kurs angekündigt und die Veröffentlichung möglicherweise verschoben. In einer Mitteilung auf dem sozialen Netzwerk X betonte Musk, dass Tesla sehr paranoid in Bezug auf Sicherheit sei und deshalb der Veröffentlichungstermin noch ändern könne. Zudem kündigte er an, dass das erste Fahrzeug, das von der Produktionslinie bis zum Kundenheim selbst fährt, für den 28.
Juni 2025 vorgesehen sei. Diese Äußerungen zeigen, dass Tesla die Kritik ernst nimmt, aber auch, dass der Konzern unter dem Druck steht, seine ambitionierten Ziele einzuhalten. Die Tatsache, dass unabhängige und kritische Organisationen wie The Dawn Project aktiv Tests durchführen und öffentlich machen, trägt wesentlich zur Debatte bei. Der Gründer Dan O’Dowd, der CEO eines Konkurrenten im Bereich autonomer Fahrsysteme ist, hat in der Vergangenheit bereits Werbekampagnen geschaltet, die vor Gefahren durch Teslas FSD warnen, insbesondere beim Halten an Schulbussen. Solche Aufmerksamkeitskampagnen erhöhen den Druck auf Tesla, fehlerhafte Systeme weiter zu verbessern oder zumindest klarere Nutzungshinweise zu geben.
In Deutschland herrscht ebenfalls große Unsicherheit. Während einige Bundesländer bereits Pilotprojekte mit autonomen Fahrzeugen fördern, sind bundesweite Regelungen noch im Entstehen. Die Tests aus Austin machen deutlich, dass bei der Zulassung autonomer Fahrzeuge besonders auf Situationen mit Kindern oder anderen besonders gefährdeten Verkehrsteilnehmern geachtet werden muss. Schulbusse sind ein klassisches Beispiel, da gesetzliche Regelungen weltweit das Anhalten für Fahrzeuge bei eingeschaltetem Stoppschild vorschreiben. FSD-Systeme scheinen hier noch nicht zuverlässig zu funktionieren.
Die Tesla-Demonstration zeigt, dass ohne menschliches Betragen das Risiko für Unfälle deutlich steigt. Der technische Meilenstein zur vollkommen autonomen Mobilität ist also noch nicht erreicht. Experten fordern daher die weitere Zusammenarbeit von Herstellern, Politikern und unabhängigen Prüfinstituten, um standardsichere und sichere Systeme zu entwickeln. Nur wenn autonome Fahrzeuge in kritischen Verkehrssituationen wie beim Einhalten von Schulbus-Regeln und beim Erkennen von Kindern einwandfrei agieren, werden sie von der breiten Öffentlichkeit akzeptiert und eingeführt werden. Tesla steht hier beispielhaft unter Beobachtung, da der Konzern mit seinem innovativen Drive-System Pionierarbeit leistet und immens hohe Erwartungen an die Technologie knüpft.
Die jüngsten Testresultate sind jedoch klarer Hinweis, dass die Entwicklung noch Zeit, sorgfältige Fehlerbehebung und rigorose Nachtests benötigt. Parallel dazu müssen Nutzer von FSD-Funktionen sich der Einschränkungen bewusst sein und weiterhin vorausschauend fahren, da das System noch nicht allein sicher navigieren kann. Die Diskussion um die Sicherheit autonomer Fahrzeuge wird in Deutschland und weltweit noch lange prägend bleiben. Dabei sind die Austin-Studien ein wichtiger Fingerzeig, wie kritisch die Testbedingungen gesetzlich geregelt und öffentlich kommuniziert werden müssen. Abschließend lässt sich sagen, dass Teslas ambitionierte Pläne beeindruckend sind, aber die Technik noch nicht ausgereift genug scheint, um sicher durch alle komplexen Verkehrssituationen zu navigieren.
Besonders bei sensiblen Situationen wie haltenden Schulbussen muss die Software noch deutlich weiter verbessert werden, um keine Risiken für Kinder und andere Verkehrsteilnehmer zu bergen. Die jüngsten Tests sollten als Anstoß dienen, die Entwicklung nicht zu überstürzen, sondern Sicherheit und gesellschaftliche Akzeptanz an erster Stelle zu setzen.