
Смертельная авария Tesla Поднимает вопросы о системах автономного вождения, Основанных на Зрении | Carscoops
Если человек не может видеть дорогу впереди, неясно, как Tesla ожидает, что FSD, контролируемая
Стивеном Риверсом 16 часов назад, будет работать лучше
Авария со смертельным исходом в Аризоне в 2023 году связана с программной системой Tesla, полностью обеспечивающей автономное вождение.
Инцидент поднимает вопросы о стратегии автономного вождения Tesla, основанной только на видении.
Это совпадает с продвижением Tesla Robotaxi и вызывает опасения по поводу автономной готовности.
Когда технологии сталкиваются с реальным миром, последствия редко бывают предсказуемыми. В конце 2023 года в Аризоне произошла трагическая авария. Из 40 901 погибших в дорожно-транспортных происшествиях в том году это было уникальное происшествие. Это был единственный случай, в котором пострадал пешеход, и, как сообщается, Tesla работала в полностью автономном режиме (под наблюдением). Теперь, когда Tesla начинает запуск роботакси в Остине, возникают вопросы о безопасности сейчас и в будущем.
Авария произошла в ноябре того же года, когда 71-летнюю бабушку Джону Стори остановили на шоссе между штатами. Она была остановлена, чтобы помочь другим людям, которые уже попадали в аварию ранее. На видео, снятом Tesla, видно, что дорога, ведущая к месту аварии, была закрыта прямыми солнечными лучами на горизонте.
Подробнее: Dodge Утверждает, что Непреднамеренное ускорение Charger Daytona - это особенность, а не ошибка
Тем не менее, на видеозаписи аварии, полученной агентством Bloomberg, видны предупреждающие знаки, указывающие на то, что что-то не так. Хотя проезжую часть невозможно разглядеть, автомобиль в правом ряду замедляет движение. Другие транспортные средства припаркованы на правой обочине. Прохожий махал руками, призывая движение замедлиться.
Не успев опомниться, водитель Tesla Карл Сток повернул налево, затем обратно к дороге, после чего врезался в припаркованную Toyota 4Runner и столкнулся с ней лоб в лоб. Она скончалась на месте происшествия. “Извините, что все произошло так быстро”, - написал Сток в свидетельских показаниях для полиции. “Передо мной остановились машины, и к тому времени, когда я их увидел, мне некуда было деться, чтобы избежать столкновения”.
Примечательно, что агентство Bloomberg утверждает, что в момент аварии был задействован FSD. “Он [Сток] использовал то, что автопроизводитель называет полным самоуправлением, или FSD”, - утверждается в отчете. Это не подтверждается полицейским отчетом. Ни сотрудники службы отчетности, ни Stock не упоминают FSD, автопилот или какую-либо другую систему круиз-контроля или автономную систему автономного управления. Тем не менее, возможно, что публикация получила доступ к закрытому отчету NHTSA о крушении и что там доступно больше данных.
Vision Vs. Лидар и радар
В конечном счете, подобные аварии подчеркивают то, что кажется наиболее очевидной проблемой для FSD Tesla. Системы, основанные на зрении, не сильно отличаются от того, как люди воспринимают дорогу. Это означает, что когда люди с трудом видят дорогу впереди, как в случае с ярким солнечным светом на горизонте, или в условиях задымления или тумана, системы, работающие на основе зрения, также могут испытывать трудности.
Как уже упоминалось, неясно, когда именно была задействована система FSD, а когда нет. Тем не менее, даже если бы система отключилась вовремя, чтобы избежать сбоя, неясно, как он мог предвидеть, что произойдет. Фактически, эта авария и другие подобные ей, хотя и без дополнительных жертв, побудили NHTSA начать расследование в отношении FSD, которое продолжается до сих пор.
“Автомобиль Tesla попал в аварию после въезда в зону ограниченной видимости на проезжей части в условиях, когда была задействована система FSD -Beta или FSD -Supervised (совместно именуемая FSD). В этих авариях ухудшение видимости на проезжей части было вызвано такими факторами, как солнечные блики, туман или пыль в воздухе”, - говорится в исследовании.
С другой стороны, системы, использующие радар или лидар, могут "видеть" за пределами тумана, световых бликов и дыма. Они могут распознавать препятствия, с которыми у систем технического зрения иногда возникают серьезные проблемы. В данном случае система, оснащенная лидаром, могла бы предупредить персонал об остановленных препятствиях. Это не делает их идеальными.
Известно, что Cruise закрылся после многомиллиардных инвестиций из-за сбоев. Все эти автомобили использовали радар и лидар, но все равно потерпели неудачу. Несмотря на все это, до сих пор остается загадкой, почему Tesla и ее генеральный директор Илон Маск так упорно используют системы, предназначенные только для наблюдения. Изменится ли это, покажет время.
Робот-слон в комнате
Возможно, рано или поздно мы узнаем, придерживается ли Tesla своей системы, ориентированной только на зрение. Автопроизводитель уже тестирует роботаксис и автомобили без водителя и собирается расширить это направление в этом месяце в Остине, штат Техас. Маск пообещал, что программа будет расширяться в течение года и что скоро появится автономное вождение 5-го уровня.
Конечно, Tesla на протяжении многих лет постоянно совершенствовала систему FSD. Это значительно более эффективная система, чем в 2023 году, но у нее все еще есть некоторые серьезные проблемы. Всего несколько недель назад автомобиль Tesla, как сообщается, с включенным FSD, разбился на открытой дороге без каких-либо препятствий, визуальных очередей или каких-либо других объяснимых причин. Нам еще предстоит подтвердить детали, но на видео видно, как автомобиль буквально съехал с дороги и врезался в дерево на скорости около 55 миль в час. Эти две аварии - то, чего роботаксис Tesla не сможет сделать, если автопроизводитель захочет, чтобы они стали массовыми. На данный момент нам остается только подождать и посмотреть, что произойдет.
Позиция Tesla
Автопроизводитель известен тем, что у него нет отдела по связям с общественностью [до тех пор, пока он действительно не захочет донести информацию до общественности]. Тем не менее, иногда это говорит о том, почему компания продолжает настаивать на использовании автопилота и FSD среди своих клиентов.
Два года назад, отзывая более миллиона автомобилей, компания заявила: “Мы в Tesla считаем, что у нас есть моральное обязательство продолжать совершенствовать наши и без того лучшие в своем классе системы безопасности. В то же время мы также считаем морально неоправданным не предоставлять доступ к этим системам более широкому кругу потребителей, учитывая неопровержимые данные, свидетельствующие о том, что они спасают жизни и предотвращают травматизм”.
Хотя Tesla известна своей непрозрачностью в отношении данных о безопасности, которые она собирает, она утверждает, что ее автомобили в среднем безопаснее, чем водители-люди. Поскольку третьи стороны не имеют полного доступа к этим данным для их подтверждения, трудно просто согласиться с этими утверждениями. Тем не менее, если они точны, то в словах Tesla есть смысл. В конечном счете, никто в этом уравнении не хочет рисковать жизнями. Вопрос в том, какой маршрут является самым безопасным не только в будущем, но и прямо сейчас?
Фото Bloomberg/YouTube



Другие статьи




Смертельная авария Tesla Поднимает вопросы о системах автономного вождения, Основанных на Зрении | Carscoops
Если человек не может видеть дорогу впереди, неясно, как Tesla ожидает, что сотрудники FSD будут работать лучше