Автомобили Tesla — последнее слово автопрома: способные передвигаться по шоссе без участия водителя, распознавая ситуацию на дороге и реагируя на нее в режиме реального времени. Современный, усовершенствованный и многофункциональный автопилот Tesla способен самостоятельно определять середину полосы и придерживаться ее, производить парковку, а с предварительным подтверждением от водителя даже менять полосу движения.
«Видит» дорогу автомобиль при помощи камер, ультразвуковых сенсоров и радара. И безошибочно распознает препятствия, рельеф, характер движения на полосе и т.д., а бортовые компьютеры, опирающиеся на технологию машинного обучения, оперативно реагируют на обстановку, определяя наилучший вариант.
Но доверить жизнь водителя и пассажиров автопилоту — дело ответственное, и потому испытатели постоянно ищут слабые места высокотехнологичной системы. И недавно исследователи выявили простой способ заставить Tesla выехать на встречную полосу.
Как сообщает «Ars Technica», несколько небольших, почти не заметных для человека, специальных наклеек способны обмануть автопилот модели Model S 75, и он поменяет полосу движения без одобрения водителя.
Сотрудники лаборатории «Keen Security» решили внимательнее изучить некоторые автоматизированные процессы Tesla, чтобы лучше понимать принципы взаимодействия системы с переменными факторами среды. Было сделано несколько открытий, но самым значимым из них стало обнаружение типа атаки, способного заставить автопилот повернуть автомобиль во встречное движение.
Такая атака сработала от трех наклеек на дорожном полотне — алгоритмы, которыми руководствуется автопилот, распознали их как линию, указывающую на смещение полосы влево. Притом наклейки были совсем маленькие, почти неуловимые для взгляда водителя, но хорошо заметные для сенсоров Tesla. И решение компьютера не заставило себя ждать.
Исследователи, обеспокоенные своим открытием, отмечают:
«Этот тип атаки прост в развертывании, а материалы легко получить. Tesla использует чисто компьютерное зрение для распознавания полосы движения, и мы обнаружили, что в этом эксперименте по атаке решение о вождении транспортного средства основывается только на результатах распознавания полосы движения с помощью компьютерного зрения. Наши эксперименты доказали, что в этой архитектуре есть риски для безопасности».
То, что возможность влиять на поведение умного автомобиля, влияя на окружающую среду, существует — известно давно. Еще в 2017 году экспериментально доказали, что наклейки, наклеенные на дорожные знаки, способны вызывать подобные реакции, сбивая автопилот с толку.
Помимо того, уязвимости компьютерной системы позволили исследователям успешно провести и другие атаки. Среди них: активация стеклоочистителя как реакция на показанное его камере специальное изображение, и даже доступ к бортовому компьютеру с последующим управлением поворотами автомобиля при помощи обыкновенного геймпада.
Но все это не делает Tesla хуже. Над каждой обнаруженной уязвимостью проводится работа, и слабое место устраняется внесением корректив в новые пакеты программного обеспечения.