L'incidente mortale di Tesla solleva domande sui sistemi di guida autonoma basati sulla visione / Carscoops

L'incidente mortale di Tesla solleva domande sui sistemi di guida autonoma basati sulla visione / Carscoops

      Se un essere umano non può vedere la strada da percorrere, non è chiaro come Tesla si aspetti che FSD supervisionato faccia meglio

       16 ore fa

      

      

      

      

      

      

      

      

      

      

      

       di Stephen Rivers

      

      

      

      

      

      

      

      Un incidente mortale del 2023 in Arizona è legato al sistema software di guida autonoma di Tesla.

      L'incidente solleva domande sulla strategia di guida autonoma vision-only di Tesla.

      Coincide con la spinta Robotaxi di Tesla e suscita preoccupazioni sulla prontezza autonoma.

      

      Quando la tecnologia si scontra con il mondo reale, le conseguenze sono raramente teoriche. Alla fine del 2023, un tragico incidente è accaduto in Arizona. Di 40.901 incidenti stradali quell'anno, è stato unico. È stato l'unico che ha coinvolto un pedone e una Tesla in esecuzione in modalità Full Self-Driving (supervisionata). Ora, mentre Tesla inizia il suo lancio Robotaxi ad Austin, sta sollevando domande sulla sicurezza ora e in futuro.

      

      

      L'incidente è avvenuto nel novembre di quell'anno quando Johna Story, una nonna di 71 anni, è stata fermata sull'interstate. È stata fermata nel tentativo di aiutare altri che erano già stati in un incidente precedente. Il video della Tesla mostra che la carreggiata che ha portato all'incidente è stata oscurata dalla luce solare diretta all'orizzonte.

      Dodge dice che l'accelerazione involontaria di Charger Daytona è una caratteristica non un bug

      Detto questo, il video ottenuto da Bloomberg dell'incidente mostra segni premonitori che qualcosa non andava. Mentre la carreggiata è impossibile da vedere, l'auto nella corsia di destra rallenta. Altri veicoli sono parcheggiati sulla spalla destra. Un passante stava agitando le mani perché il traffico rallentasse.

      

      

      

      

      Prima che se ne rendesse conto, il pilota di Tesla Karl Stock stava virando a sinistra, poi di nuovo verso la strada prima di colpire una Toyota 4Runner parcheggiata e la storia a testa alta. E ' morta sulla scena. "Mi dispiace che sia successo tutto così in fretta", ha scritto Stock in una dichiarazione di testimoni per la polizia. "C'erano macchine ferme davanti a me e quando le ho viste, non avevo un posto dove andare per evitarle.”

      

      

      In particolare, Bloomberg afferma che FSD era impegnato al momento dell'incidente. "Aveva ingaggiato ciò che la casa automobilistica chiama Full Self-Driving, o FSD”, afferma il rapporto. Questo non è confermato dal rapporto della polizia. Né gli ufficiali di segnalazione né lo Stock menzionano FSD, autopilota o qualsiasi tipo di cruise control o sistema autonomo. Detto questo, è possibile che la pubblicazione abbia ottenuto l'accesso al rapporto di crash NHTSA non pubblico e che siano disponibili più dati lì.

      Visione Vs. Lidar e Radar

      In definitiva, incidenti come questo evidenziano quella che sembra la preoccupazione più ovvia per l'FSD di Tesla. I sistemi basati sulla visione non sono molto dissimili dal modo in cui gli esseri umani percepiscono la strada. Ciò significa che quando gli esseri umani lottano per vedere la strada davanti, come nel caso della luce solare intensa all'orizzonte, o in condizioni di fumo o nebbia, anche i sistemi basati sulla visione possono lottare.

      

      

      Come accennato, non sembra chiaro quando esattamente FSD è stato impegnato e quando non lo era. Detto questo, anche se il sistema si è disinnestato in tempo per lo stock per evitare il crash, non è chiaro come avrebbe visto cosa stava arrivando a farlo. In effetti, questo incidente e altri simili, anche se senza ulteriori vittime, hanno portato l'NHTSA a dare il via a un'indagine sull'FSD che è ancora in corso.

      "Un veicolo Tesla ha subito un incidente dopo essere entrato in un'area di condizioni di visibilità ridotta della carreggiata con FSD-Beta o FSD-Supervisionato (collettivamente, FSD) impegnato. In questi incidenti, la ridotta visibilità della carreggiata è nata da condizioni come l'abbagliamento del sole, la nebbia o la polvere dispersa nell'aria”.

      

      

      

      

      

      

      

      

      

      Il rovescio della medaglia, i sistemi che si basano su radar o lidar possono 'vedere' oltre la nebbia, l'abbagliamento della luce e il fumo. Possono raccogliere ostacoli con cui i sistemi basati sulla visione a volte hanno problemi reali. In questo caso, un sistema dotato di lidar potrebbe aver potenzialmente avvisato Stock degli ostacoli fermati. Questo non li rende perfetti.

      Cruise notoriamente chiuso dopo miliardi di investimenti a causa di incidenti. Quelle macchine usavano tutti radar e lidar e ancora non funzionavano. Detto questo, è ancora un po ' una meraviglia sul perché Tesla e il suo CEO, Elon Musk, siano così convinti nel loro uso di sistemi di sola visione. Solo il tempo ci dirà se le cose cambiano.

      

      

      L'elefante robot nella stanza

      

      

      

      

      

      

      

      

      

      Potremmo imparare prima piuttosto che dopo se Tesla si attiene o meno al suo sistema di sola visione. La casa automobilistica sta già testando robotaxis e auto senza conducente ed è destinata ad espandersi questo mese ad Austin, in Texas. Musk ha promesso che il programma si espanderà durante tutto l'anno e che la guida autonoma di livello 5 arriverà presto.

      Naturalmente, Tesla ha continuamente migliorato FSD nel corso degli anni. È un sistema drammaticamente più capace di quanto non fosse nel 2023, ma ha ancora alcuni problemi importanti. Solo poche settimane fa, una Tesla, secondo quanto riferito con FSD impegnato, si è schiantata su una strada aperta senza ostacoli, senza code visive o qualsiasi altro ragionamento spiegabile. Dobbiamo ancora confermare i dettagli, ma nel video, l'auto è letteralmente uscita di strada e contro un albero a circa 55 mph. Questi due incidenti sono cose che la Robotaxis di Tesla non può fare se la casa automobilistica vuole che siano mainstream. Per ora, c'è poco altro da fare che aspettare e vedere cosa succede.

      La presa di Tesla

      

      La casa automobilistica è famosa per la sua mancanza di un reparto PR [fino a quando non vuole davvero ottenere un messaggio]. Detto questo, a volte parla del perché continua a spingere per l'utilizzo di Autopilot e FSD tra i suoi clienti.

      Due anni fa, quando ha richiamato oltre un milione di auto, ha dichiarato: “Noi di Tesla crediamo di avere l'obbligo morale di continuare a migliorare i nostri sistemi di sicurezza già best-in-class. Allo stesso tempo, riteniamo anche che sia moralmente indifendibile non mettere questi sistemi a disposizione di un più ampio gruppo di consumatori, dati i dati incontrovertibili che dimostrano che sta salvando vite umane e prevenendo lesioni.”

      Mentre Tesla è notoriamente opaca sui dati di sicurezza che raccoglie, afferma che le sue auto sono in media più sicure dei conducenti umani. Poiché le terze parti non hanno pieno accesso a tali dati per convalidarli, è difficile accettare semplicemente tali affermazioni. Tuttavia, se sono precisi, Tesla ha un punto. Alla fine della giornata, nessuno in questa equazione vuole rischiare la vita. La domanda è: quale strada è la più sicura, non solo in futuro, ma in questo momento?

      

      

      Immagine di piombo Bloomberg / YouTube

L'incidente mortale di Tesla solleva domande sui sistemi di guida autonoma basati sulla visione / Carscoops L'incidente mortale di Tesla solleva domande sui sistemi di guida autonoma basati sulla visione / Carscoops L'incidente mortale di Tesla solleva domande sui sistemi di guida autonoma basati sulla visione / Carscoops

Altri articoli

L'incidente mortale di Tesla solleva domande sui sistemi di guida autonoma basati sulla visione / Carscoops

Se un essere umano non può vedere la strada da percorrere, non è chiaro come Tesla si aspetti che FSD supervisionato faccia meglio