Национальная администрация безопасности дорожного движения (NHTSA) CША закрыла расследование функций автопилота Tesla, начатое в 2021 году. Как сообщает телеграм-канал "Беспилот", орган сразу же открыл новое дело.
Всего NHTSA расследовало 956 аварий с участием Tesla, произошедших с января 2018 года по август 2023 года, в результате которых погибли 43 человека, 49 получили ранения. Но расследование может быть неполным из-за "пробелов" в телеметрических данных Tesla, и фактически аварий может быть намного больше.
Как выяснилось, часть аварий произошли в тёмное время суток, при этом программное обеспечение Tesla игнорировало предупреждающие огни, конусы и освещённые знаки. Технология Tesla "не обеспечивает адекватного удержания внимания водителей на дороге", а водители, использующие автопилот или FSD, "недостаточно вовлечены в задачу вождения".
"Проще говоря, водители искренне верили в высокие возможности автопилота Tesla и доверяли ему, а тот их доверие не оправдал. Автопилот оказался недостаточно "авто", что зачастую и приводило к авариям", – поясняют авторы "Беспилота".
Это несоответствие привело к критическому разрыву в безопасности между ожиданиями водителей относительно рабочих возможностей и истинными возможностями системы. Разрыв привёл к предсказуемому неправильному использованию и сбоям, которых можно было избежать.
К тому же функции автопилота и FSD "расслабляют" водителей – они теряют концентрацию и не могут среагировать вовремя, даже когда такая возможность есть. В 59 случаях у водителей было достаточно времени до столкновения (от 5 секунд), в 19 из этих аварий опасность была видна за 10 и более секунд до столкновения, но реакции не последовало.
Аварии с отсутствием или поздними попытками уклонения со стороны водителя обнаружены во всех версиях оборудования Tesla и при любых обстоятельствах.
Сенйчас Tesla требует от водителей при использовании автопилота следить за дорожной обстановкой и держать руки на руле, контролируя это при помощи датчиков и камеры, но в NHTSA считают, что этих мер недостаточно.