
Accidentul Cybertruck, o nouă provocare pentru sistemul FSD al Tesla
Un nou accident în care a fost implicat un Cybertruck Tesla, despre care se vehiculează că opera în modul de conducere autonomă (FSD), pune sub semnul întrebării siguranța acestui sistem și strategia de apărare a companiei condusă de Elon Musk. Un videoclip de pe o cameră de bord arată momentul în care vehiculul a fost la un pas de a ieși de pe un pod din Houston, după care a intrat violent într-o barieră. Șoferița susține că a suferit multiple leziuni în urma incidentului.
Incidentul ridică o serie de semne de întrebare cu privire la funcționarea sistemului FSD și la gradul de responsabilitate asumat de Tesla. Compania susține că șoferul este responsabil în permanență, indiferent de funcțiile de asistență active. Cu toate acestea, criticii subliniază dificultățile create de un sistem care induce încredere, dar care necesită intervenție umană rapidă în situații critice.
Cât de repede poate reacționa un șofer? Patru secunde pot fi decisive
Potrivit analiștilor, argumentul Tesla, susținut de Elon Musk, conform căruia sistemul FSD a fost dezactivat cu patru secunde înainte de impact, nu rezolvă problema centrală. Aceasta vizează secvența evenimentelor care a dus la accident. Un sistem de asistență care nu încetinește sau nu virează corect într-o curbă rapidă de autostradă, poate genera o situație imposibil de controlat de către șofer în timpul scurt rămas.
Experiența tragică a fostului șef al programului de mașini autonome de la Uber, Raffi Krikorian, care și-a făcut praf propria Tesla folosind FSD, ilustrează această problemă. El a subliniat faptul că oamenii nu pot supraveghea perfect un sistem care funcționează bine aproape tot timpul, atenția fiind limitată. TechRadar a făcut o paralelă explicită între cazul său și accidentul Cybertruck-ului, subliniind capcana încrederii progresive în sistemele autonome.
NHTSA investighează, instanțele dau verdictul: Presiunea crește asupra Tesla
Strategia Tesla de a se baza pe limitările legale ale sistemului Level 2 și pe responsabilitatea șoferului este tot mai greu de susținut. Imaginea publică a FSD este mult mai ambițioasă decât cea a unui simplu asistent de menținere a benzii. Când totul merge bine, imaginea companiei are de câștigat, însă, în caz de accident, vina este transferată utilizatorului.
Agenția americană pentru siguranța traficului (NHTSA) a intensificat investigația asupra sistemului FSD, extinzând-o la o analiză inginerească care acoperă aproximativ 3,2 milioane de vehicule Tesla. Investigația vizează modul în care sistemul gestionează condițiile dificile de vizibilitate și avertizează șoferul. Pe lângă aceasta, NHTSA investighează zeci de incidente legate de încălcări de trafic și accidente asociate FSD.
În august 2025, un juriu din Florida a obligat compania să plătească daune de 243 de milioane de dolari într-un proces legat de un accident fatal cu Autopilot. Acesta este doar un exemplu, demonstrând modul în care instanțele acordă o atenție sporită responsabilității sistemelor semi-autonome Tesla.

Fii primul care comentează