Еще раз об автопилоте: почему это опасно

Об автономных системах управления транспортным средством мы уже говорили, причем не раз. Но это не значит, что тема исчерпана и возвращаться к ней не имеет смысла. Наоборот, с каждым месяцем она лишь доказывает свою актуальность, заставляя высказывать собственное мнение большое количество автомобильных экспертов, страховых институтов и других профильных организаций. Сегодня обсудим, когда нам стоит ждать пресловутого восстания машин и какое будущее ждет привычный уклад автомобилиста.

Еще раз об автопилоте: почему это опасно

Если автомобиль умнее водителя

Да, подобная ассоциация возникает сама собой при просмотре промоматериалов во время презентации очередной «зеленой» новинки: мол, и едет сама, и тормозит где надо, и воздух кондиционирует сообразно вкусам владельца, и массаж сделать может, не отвлекаясь от дороги. Кажется, ура, вот оно, будущее – «вкалывают роботы, а не человек», как радостно пел в знаменитом фильме Серега Сыроежкин.

На практике же всё далеко не так радужно. Первую подачу для увеличения автономии автомобилей сделал бренд Tesla, который еще год назад занимал лидирующие позиции в мировой продаже электрокаров. Как утверждает один из основателей бренда Мартин Эберхард, именно беспилотному функционалу, однажды заявленному Илоном Маском, Tesla обязана такой популярностью среди населения, хотя изначально производитель собирался выпускать простые и недорогие электрокары, каким должен был стать компактный Roadster.

Так, Эберхард раскритиковал одержимость Илона Маска технологией автопилотирования, которая так и не была доведена до ума, и назвал ошибочным превращение транспортного средства в гаджет. С ним согласился и Стив Возняк, сооснователь компании Apple, обвинив Маска в лживом пиаре.

Он пожаловался, что стал жертвой обещаний об умном авто, купив в 2016 году электрокар Tesla, после чего заплатил еще более $50.000 за все апгрейды и перепрошивки ПО, но беспилотный режим так полноценно и не заработал. «Сейчас при включенном автопилоте Tesla я должен постоянно следить за дорогой», – пожаловался Возняк.

Эберхард, в свою очередь, заявил, что изначально высказывался против технологии автопилотирования и по-прежнему выступает против того, чтобы электромобиль прочно ассоциировался у публики с автономным вождением. «Я бы предпочел, чтобы люди думали о том, что мы можем делать более совершенные автомобили, которыми можно будет легко и безопасно управлять», – заявил он.

Алгоритм против рефлексов

Системные проблемы автопилотов Tesla Model S начались еще в 2016 году, когда водители стали на полном ходу проезжать под прицепами фур, когда те пересекали поперечную трассу: автономный драйвер их то ли не воспринимал как препятствие или другой транспорт, то ли попросту не видел. Проблему эту, к слову, в старых системах не устраняли несколько лет, что повлекло за собой десятки ДТП со смертельным исходом.

Любопытно, что в каждом случае было проведено тщательное расследование, в ходе которого выяснялось, как именно повел себя… автопилот в критической ситуации. К примеру, в аварии, приведшей к гибели Джошуа Брауна, неудачно проскочившего под прицепом грузовика в мае 2016 года, виновным признали последнего, так как он действительно превысил скорость.

Автопилот при этом оправдали, поскольку программа распознала светлый полуприцеп на фоне светлого неба за 7 секунд до столкновения, предоставив человеку адекватный запас времени для предотвращения аварии. Алгоритмы торможения при этом задействованы не были.

Аналогичная ситуация произошла в 2019 году с Джереми Баннером, который, активировав автопилот на Model 3, въехал на высокой скорости под пересекающий его траекторию движения грузовик с полуприцепом и был раздавлен. В данном случае умная система дала пилоту аж 10 секунд на реагирование по обстоятельствам. Разбирая данный эпизод, суд посчитал виновным именно Баннера, который мог и увеличить скорость.

Вдова погибшего Баннера и мать троих детей выдвинула претензию бренду, отметив, что устранить дефекты в ПО, если уж таковые были выявлены на практике, в Tesla должны были еще после первой трагедии с участием Джошуа Брауна, что выполнено не было, а по каким причинам – история умалчивает. Хотя практика показывает, что прецедентное право в суде заставляет техногигантов до последнего отстаивать свою невиновность, чтобы потом не совершать разорительные выплаты всем тем, кого подобное может коснуться в дальнейшем.

Любопытно, что в 2021 году инженер Tesla Крис Пэйн обнародовал часть технических отчетов компании в момент указанных эпизодов (напомним, что разница между ними составляет три года). Оказалось, что тогда бортовые системы электромобилей Tesla просто не были обучены предсказанию появления транспортных средств в поперечном направлении. А если так, то всемогущая система автопилотирования от корпорации Илона Маска – это не просто бесполезный дорогостоящий апгрейд, но и опасный для жизни пользователей.

Ассистент, а не замена

Еще немного важной статистики приводит Американский страховой институт дорожной безопасности (IIHS). При проведении исследования с участием 600 автовладельцев и трех различных систем автопилотирования – Сadillac Super Cruise, Tesla Autopilot и Nissan/Infiniti ProPilot – было выявлено, что большинство пользователей (более 50%) считает свои машины полностью автономными, хотя фактически это не так.

Тот самый агрессивный маркетинг, о котором мы говорили вначале, к сожалению, дал первые неутешительные плоды – люди стали воспринимать машины, оборудованные дорогостоящими ассистентами, как самостоятельные единицы, способные к оценке дорожной ситуации, движению, торможению и иным маневрам, когда это необходимо. При этом очень небольшой процент опрошенных автовладельцев проявлял интерес к качеству и эффективности работы этих ассистентов. Отсюда можно сделать вывод, что человек, осознанно покупающий «нафаршированный» электроникой современный автомобиль, уверен, что вместе с ним покупает и собственную безопасность.

Увы, это не так: по статистике у 40% опрошенных в критический момент спасительная электроника отключалась и больше не активировалась, тогда как водители тратили оставшиеся у них драгоценные секунды на то, чтобы вообще понять, что происходит. В первую очередь речь идет об экстренном торможении в условиях недостаточной видимости и о системе удержания в полосе. Но, вопреки здравому смыслу, такая преступная халатность не искореняется, а, наоборот, поощряется.

В свою очередь сотрудники Института транспортных исследований (ITS) из Лидсского университета в Великобритании изучили поведение людей в обстоятельствах, когда им приходится отключать автопилот и переходить на ручное управление автомобилем.

Оказалось, что испытуемым требовалось от 2 до 10 секунд (некоторым – и вовсе около 28 секунд), чтобы перейти на ручное управление. Водителям хорошо удавалось держаться в полосе движения в том случае, если они получали помощь со стороны автоматики (в частности, LKA, предупреждающей о выходе из своей полосы) в течение 7 и более секунд.

В это время они оценивали окружающую обстановку и только потом брали на себя контроль над транспортным средством. Во время смены полосы движения наиболее полезной оказалась функция Blind-spot Assist (мониторинг «слепых» зон), которая оставалось активной даже при отключении автопилота. А теперь перечитываем абзацы о водителях Tesla – и пониманием, что их шансы при отказе автоматики в критический момент были минимальными…

***

Что следует из вороха столь опасно выглядящих статистических данных? В первую очередь хочется выразить надежду на то, что в ближайшие 10-15 лет автомобилисты не потеряют способности критически мыслить и не будут верить всему, что говорят маркетологи. Во вторую – что они не позволят автоматике ограничивать их права и обязанности и что эти системы будут носит вспомогательный, но никак не обязательный характер. Иначе количество ДТП будет только расти, а сам автопилот станет бичом, а не долгожданным благом…

19.10.2023

О чем еще вы бы хотели прочитать на Bamper.by? Задайте свой вопрос!

12 979 197
Запчастей
48 045
Шин
34570
Продавцов