Site icon Експерт

Автопілот Tesla спеціально провокує ДТП і мчить на червоний: скандальне розслідування

Національне управління безпеки руху США (NHTSA) почало розслідування технології повного автономного водіння (Full Self-Driving, FSD) компанії Tesla після повідомлень про інциденти, коли автопілот змушував автомобілі проїжджати на червоне світло або виїжджати на зустрічну смугу.

Про це повідомляє “Tech Crunch

Наразі зафіксовано понад 50 повідомлень про порушення правил дорожнього руху, чотири з яких призвели до травм. Це одне з перших масштабних розслідувань, спрямованих саме на програмне забезпечення Tesla для автономного водіння.

Управління з розслідування дефектів (ODI) повідомило про щонайменше 18 скарг та один медійний репортаж, де стверджується, що FSD не змогло зупинити автомобіль на червоне світло. Крім того, виявлено шість повідомлень від Tesla за загальним регламентом звітності про ДТП (SGO) щодо аварій із частково або повністю автономними автомобілями.

ODI зафіксувало випадки, коли FSD:

Як зазначає агентство, деякі з цих інцидентів повторювалися на одному й тому ж перехресті в Джоппі, штат Меріленд, і Tesla вже вживала заходів для вирішення проблеми.

ODI почала попередню оцінку — перший етап перед можливим відкликанням програмного забезпечення. Зазвичай такі розслідування тривають до восьми місяців, хоча точні терміни можуть змінюватися залежно від роботи федерального уряду.

Читати повну версію