Раздел Технологии выходит при поддержке Favbet Tech
Национальная Администрация Безопасности Дорожного Движения США (NHTSA) расследовала 956 ДТП, участниками которых стали электромобили Tesla с функциями Autopilot и Full Self-Driving (FSD). Причем расследование касалось только инцидентов, которые произошли в промежуток времени с января 2018 года и до августа 2023 года. В целом аварий было больше.
NHTSA начала расследование после нескольких инцидентов, когда автомобили Tesla врезались в неподвижные машины скорой помощи, припаркованные на обочине дороги. Большинство этих инцидентов происходили с наступлением темноты, когда ПО авто игнорировало меры предостережения, включая предупредительные огни, проблесковые маячки, конусы и световые стрелки.
В этих ДТП (в некоторых из них также участвовали другие транспортные средства) погибли 29 человек. Было также 211 аварий, в которых «фронтальная плоскость Tesla врезалась в транспортное средство или препятствие на пути». Эти аварии, которые часто были самыми серьезными, привели к 14 смертям и 49 травмам.
В своем расследовании агентство обнаружило, что Autopilot — и, в некоторых случаях, FSD — не был разработан, чтобы поддерживать вовлечение водителя. Tesla заявляет, что предупреждает своих клиентов о том, что им нужно быть внимательными при использовании Autopilot и FSD, то есть держать руки на руле и смотреть на дорогу. Но NHTSA говорит, что во многих случаях водители становятся чрезмерно самодовольными и теряют внимание. А когда наступала необходимость реагировать, часто было уже слишком поздно.
Агентство обнаружило, что в 59 ДТП у водителей Tesla было достаточно времени, «5 или более секунд», чтобы отреагировать, прежде чем врезаться в другой объект. В 19 из этих аварий опасность была видима в течение 10 или более секунд до столкновения. Просматривая журналы аварий и данные, предоставленные Tesla, NHTSA обнаружило, что в большинстве проанализированных аварий водители не тормозили или не управляли, чтобы избежать опасности.
NHTSA также сравнило функции автоматизации Tesla уровня 2 (L2) с продуктами, доступными в автомобилях других компаний. В отличие от других систем, Autopilot скорее отстраняет водителя от управления, чем оказывает помощь в управлении. Это «препятствует» водителям быть вовлеченными в задачу управления автомобилем. Tesla выделяется в отрасли в ее подходе к технологии L2 из-за несоответствия слабого вовлечения водителя разрешенным рабочим возможностям Autopilot. Даже название бренда «Autopilot» вводит в заблуждение потребителей. Продукты Tesla заставляют водителей думать, что они более способные и эффективные, чем они есть на самом деле. Другие производители применяют слова вроде «помощь».
Онлайн-курс Pyton від Powercode academy. Опануйте PYTHON з нуля та майте проект у своєму портфоліо вже через 4 місяця. Приєднатися
NHTSA заключает, что водители, использующие Autopilo или более продвинутую систему, Full Self-Driving, «не были достаточно вовлечены в задачу управления», а технология Tesla «не обеспечивала должным образом то, чтобы водители сосредотачивали свое внимание на задаче управления».
NHTSA признает, что его исследование может быть неполным из-за «пробелов» в телеметрических данных Tesla. Это может означать, что аварий с участием Autopilot и FSD гораздо больше, чем удалось обнаружить Администрации.
Источник: The Verge
Раздел Технологии выходит при поддержке Favbet Tech
Favbet Tech – это IT-компания со 100% украинской ДНК, которая создает совершенные сервисы для iGaming и Betting с использованием передовых технологий и предоставляет доступ к ним. Favbet Tech разрабатывает инновационное программное обеспечение через сложную многокомпонентную платформу, способную выдерживать огромные нагрузки и создавать уникальный опыт для игроков. IT-компания входит в группу компаний FAVBET.