FSD Supervised 14.1.7 на Tesla Model 3: как автопилот справился с агрессией на дороге
Блогеры проверили FSD 14.1.7 на Tesla Model 3: порой обошёл человека
На закрытом полигоне блогеры Out of Spec Reviews и Dirty Tesla устроили серию нестандартных испытаний Full Self-Driving, проверяя, как автопилот реагирует на поведение, напоминающее агрессивную езду: резкие подрезания, попытки бокового контакта и неожиданные маневры рядом. Об этом пишет портал speedme.ru.
В испытаниях Tesla Model 3 с FSD не только уверенно уходила от возможного удара, но и демонстрировала реакции, которые, по оценке авторов теста, в ряде случаев выглядели более выверенными, чем у среднего водителя. После обгона машина самостоятельно увеличивала дистанцию, а позже и вовсе разворачивалась, чтобы не ехать рядом с «агрессором». При встречном разъезде FSD начинал торможение задолго до сближения, а при выезде автомобиля с обочины останавливалась почти без рывков — в целом поведение выглядело собранным и последовательным.
Если Tesla оказывалась вынуждена уходить с дороги, система выбирала выезд на траву, избегая рисковать столкновением. Такой выбор воспринимается как прагматичный способ снизить ущерб в нестандартной ситуации. Испытания проводились на версии FSD Supervised 14.1.7 и показали, что алгоритмы умеют распознавать угрозы и выбирать более безопасный сценарий даже вне привычных условий.
При этом, несмотря на заметный прогресс, тема остается спорной: в США система находится под расследованиями, а регуляторы ЕС по-прежнему не допускают ее на дороги общего пользования. На фоне продемонстрированных реакций это подчеркивает, что технология развивается быстрее, чем складывается консенсус вокруг правил и границ ее применения.