
Accidente Mortal De Tesla Plantea Preguntas Sobre Los Sistemas De Conducción Autónoma Basados En La Visión / Carscoops
Si un humano no puede ver el camino por delante, no está claro cómo Tesla espera que el FSD Supervisado mejore
hace 16 horas
por Stephen Rivers
Un accidente fatal en Arizona en 2023 está relacionado con el sistema de software de Conducción Autónoma Completo de Tesla.
El incidente plantea preguntas sobre la estrategia de conducción autónoma solo con visión de Tesla.
Coincide con el impulso de Robotaxi de Tesla y genera preocupaciones sobre la preparación autónoma.
Cuando la tecnología choca con el mundo real, las consecuencias rara vez son teóricas. A fines de 2023, ocurrió un trágico accidente en Arizona. De las 40,901 muertes por accidentes de tránsito ese año, fue único. Fue el único que involucró a un peatón y un Tesla que, según los informes, funcionaba en modo Totalmente Autónomo (Supervisado). Ahora, cuando Tesla comienza su lanzamiento de Robotaxi en Austin, está planteando preguntas sobre la seguridad ahora y en el futuro.
El accidente ocurrió en noviembre de ese año cuando Johna Story, una abuela de 71 años, fue detenida en la interestatal. Fue detenida en un esfuerzo por ayudar a otras personas que ya habían tenido un accidente anterior. El video del Tesla muestra que la carretera que conducía al accidente estaba oscurecida por la luz solar directa en el horizonte.
Más: Dodge Dice Que La Aceleración Involuntaria Del Charger Daytona Es Una Característica, No Un Error
Dicho esto, el video obtenido por Bloomberg del accidente muestra señales de advertencia de que algo andaba mal. Si bien es imposible ver la carretera, el automóvil en el carril derecho disminuye la velocidad. Otros vehículos están estacionados en el arcén derecho. Un transeúnte agitaba las manos para que el tráfico disminuyera la velocidad.
Antes de darse cuenta, el conductor de Tesla, Karl Stock, giraba a la izquierda, luego volvía a la carretera antes de chocar contra un Toyota 4Runner estacionado y Story de frente. Ella falleció en la escena. "Lamento que todo haya sucedido tan rápido", escribió Stock en una declaración de testigo para la policía. "Había autos parados frente a mí y cuando los vi, no tenía a dónde ir para evitarlos.”
En particular, Bloomberg afirma que FSD estaba comprometido en el momento del accidente. "Él [Stock] había contratado lo que el fabricante de automóviles llama Conducción Autónoma Completa, o FSD", afirma el informe. Esto no está corroborado por el informe policial. Ni los oficiales informantes ni Stock mencionan FSD, Piloto automático ni ningún tipo de control de crucero o sistema autónomo. Dicho esto, es posible que la publicación haya tenido acceso al informe de fallas no público de la NHTSA y que haya más datos disponibles allí.
Visión Vs. Lidar y Radar
En última instancia, accidentes como este resaltan lo que parece ser la preocupación más obvia para el FSD de Tesla. Los sistemas basados en la visión no difieren enormemente de la forma en que los humanos perciben la carretera. Eso significa que cuando los humanos luchan por ver el camino por delante, como es el caso de la luz del sol brillante en el horizonte, o en condiciones llenas de humo o niebla, los sistemas basados en la visión también pueden tener dificultades.
Como se mencionó, no parece claro cuándo se activó exactamente FSD y cuándo no. Dicho esto, incluso si el sistema se desconectó a tiempo para que Stock evitara el colapso, no está claro cómo habría visto lo que vendría a hacerlo. De hecho, este accidente y otros similares, aunque sin muertes adicionales, llevaron a la NHTSA a iniciar una investigación sobre el FSD que aún está en curso.
"Un vehículo Tesla sufrió un accidente después de ingresar a un área con condiciones de visibilidad reducida en la carretera con el FSD Beta o Supervisado por el FSD (colectivamente, FSD) activado. En estos choques, la visibilidad reducida de la carretera surgió de condiciones como el resplandor del sol, la niebla o el polvo en el aire", señaló la investigación.
Por otro lado, los sistemas que dependen del radar o lidar pueden 'ver' más allá de la niebla, el resplandor de la luz y el humo. Pueden detectar obstáculos con los que los sistemas basados en la visión a veces tienen problemas reales. En este caso, un sistema equipado con lidar podría haber alertado potencialmente a las existencias de los obstáculos detenidos. Eso no los hace perfectos.
Cruise cerró después de una inversión de miles de millones debido a accidentes. Todos esos autos usaron radar y lidar y aún así fallaron. Dicho todo esto, sigue siendo un poco sorprendente por qué Tesla y su CEO, Elon Musk, son tan firmes en el uso de sistemas solo de visión. Solo el tiempo dirá si eso cambia.
El Elefante Robot En La Habitación
Podríamos aprender más temprano que tarde si Tesla se apega o no a su sistema de solo visión. El fabricante de automóviles ya está probando robotaxis y automóviles sin conductor y está listo para expandirlos este mes en Austin, Texas. Musk ha prometido que el programa se expandirá a lo largo del año y que la conducción autónoma de nivel 5 llegará pronto.
Por supuesto, Tesla ha mejorado continuamente el FSD a lo largo de los años. Es un sistema dramáticamente más capaz de lo que era en 2023, pero aún tiene algunos problemas importantes. Hace apenas unas semanas, un Tesla, según los informes, con FSD activado, se estrelló en una carretera abierta sin obstáculos, sin colas visuales ni ningún otro razonamiento explicable. Todavía tenemos que confirmar los detalles, pero en el video, el automóvil literalmente se salió de la carretera y chocó contra un árbol a alrededor de 55 mph. Estos dos accidentes son cosas que los robotaxis de Tesla no pueden hacer si el fabricante de automóviles alguna vez quiere que sean convencionales. Por ahora, hay poco más que hacer que esperar y ver qué sucede.
La opinión de Tesla
El fabricante de automóviles es famoso por su falta de un departamento de relaciones públicas [hasta que realmente quiere transmitir un mensaje]. Dicho esto, a veces habla sobre por qué continúa impulsando el uso del Piloto automático y FSD entre sus clientes.
Hace dos años, cuando retiró del mercado más de un millón de automóviles, dijo: "En Tesla creemos que tenemos la obligación moral de continuar mejorando nuestros sistemas de seguridad, que ya son los mejores de su clase. Al mismo tiempo, también creemos que es moralmente indefendible no poner estos sistemas a disposición de un conjunto más amplio de consumidores, dados los datos incontrovertibles que muestran que está salvando vidas y previniendo lesiones.”
Si bien Tesla es notoriamente opaca sobre los datos de seguridad que recopila, afirma que sus automóviles son más seguros en promedio que los conductores humanos. Dado que los terceros no tienen acceso completo a esos datos para validarlos, es difícil simplemente aceptar esas afirmaciones. Sin embargo, si son precisos, Tesla tiene razón. Al final del día, nadie en esta ecuación quiere arriesgar vidas. La pregunta es, ¿qué ruta es la más segura, no solo en el futuro, sino en este momento?
Imagen principal Bloomberg / YouTube



Otros artículos




Accidente Mortal De Tesla Plantea Preguntas Sobre Los Sistemas De Conducción Autónoma Basados En La Visión / Carscoops
Si un ser humano no puede ver el camino por delante, no está claro cómo Tesla espera FSD Supervisado para hacerlo mejor