Національна адміністрація безпеки дорожнього руху США (NHTSA) виявила серйозні проблеми з системами автопілота і повного автономного водіння Tesla. Фахівці пов’язують цей автопілот з сотнями аварій та навіть зі смертельними випадками. Причиною є недостатня залученість водія електрокара.
Як передає The Verge, у березні 2023 року учень з Північної Кароліни був збитий автомобілем Tesla Model Y, який їхав на великій швидкості. Згодом з’ясувалося, що водій електрокара використовував автопілот. Саме ту функцію, яка, за словами власника Tesla Ілона Маска, повинна призвести до створення повністю автономних автомобілів. Тоді 17-річний студент з травмами, небезпечними для життя, був госпіталізований. Проте розслідування показало, що це не єдина подібна аварія.
Фахівці NHTSA зазначили, що водії, які використовували автопілот або більш просунуту версію системи – FSD (Full Self-Driving – повне самостійне водіння), не були достатньо залучені в процес керування. При цьому, за словами експертів, Tesla “не забезпечувала належним чином, щоб водії могли зосередити свою увагу на виконанні завдання.
Комплексний аналіз NHTSA охопив 956 аварій з січня 2018 року по серпень 2023 року, в яких були задіяні функції автоматизованого водіння Tesla. У результаті з’ясувалося, що серед них було 29 смертельних випадків. 211 аварій з них включали зіткнення передньої частини Tesla з іншим транспортним засобом або перешкодою: це призвело до 14 смертей і 49 поранень.
NHTSA розпочала розслідування після кількох випадків, коли водії Tesla врізалися в припарковані на узбіччі стаціонарні автомобілі екстреної допомоги. Зазначалося, що програмне забезпечення електрокарів ігнорувало заходи контролю місця події. Йдеться про ліхтарі, сигнальні вогні, конуси тощо.
У звіті NHTSA йдеться про те, що цей автопілот не був розроблений для того, щоб водій міг зосередитися на управлінні автомобілем. Водночас у компанії Tesla заявляють, що попереджають власників електрокарів про необхідність бути уважними, коли вони використовують автопілот та FSD, який передбачає тримання рук на кермі та стеження за дорогою. Однак фахівці заявили, що в багатьох випадках водії втрачали фокус уваги і не встигали своєчасно відреагувати.
У 59 аваріях з Tesla водії мали достатньо часу, щоб зреагувати (п’ять та більше секунд до зіткнення з об’єктом. Проаналізувавши інформацію від виробника фахівці виявили, що більшості проаналізованих аварій водії не встигли загальмувати або повернути кермо, щоб уникнути небезпеки.
“Аварії, в яких водій не намагався уникнути небезпеки або робив це занадто пізно, були виявлені у всіх версіях обладнання Tesla та за всіх обставин аварії”, – заявили в NHTSA.
В Агентстві заявили, що підхід Tesla до автоматизації 2-го рівня (L2) помітно відрізняється від аналогів, що може перешкоджати водіям брати активну участь у керуванні автомобілем. При цьому фахівці визнали, що розслідування може бути неповним через “прогалини в телеметричних даних виробника”. Тобто, ймовірно, може бути ще більше аварій, які пов’язані з автопілотом і FSD “електрокарів Ілона Маска”.
У Швейцарії церква задля експерименту замінила у сповідальні священника на цифровий аватар Ісуса. Завдяки штучному інтелекту він…
Як стало відомо, що в Україні пенсіонери можуть користуватися пільгами на сплату земельного податку, але вони не поширюються на…
Продукти першої необхідності помітно подорожчали під тиском інфляції та інших факторів, а деякі торгові точки…
Згідно з недавнім аналізом Financial Times, мобілізаційний резерв України становить близько 3,7 млн чоловіків віком від 25…
В Україні почастішали випадки штрафування водіїв вживаних автомобілів, привезених зі США. Причина криється в технічних…
Останніми днями схоже, що у Москві з'явилася ще одна божевільна звичка. Після вечірніх лякалок Путіна,…