Дослідники з університету Бен-Гуріон змогли обдурити популярні системи автопілотів, використовуючи сприйняття ними проектованих зображень як справжніх та змусили машини гальмувати або заїжджати на зустрічні смуги на автотрасі. Про це пише Threatpost.
Дослідники зазначають, що системи автопілотів, які використовуються у популярних автомобілях з можливостями автономного управління, включаючи Tesla Model X, – можна обдурити, показавши їм зображення людей, автомобілів та інших перешкод, спроектовані дронами або іншими носіями проекторів, на дорозі або на навколишніх білбордах. Зловмисники могли б потенційно використати цю схему, щоб запустити систему гальмування або скерувати автомобіль на зустрічну смугу.
Проблема випливає з вдосконалених систем допомоги в русі (ADAS), які використовуються напівавтономними транспортними засобами для допомоги водію транспортного засобу під час руху або стоянки. Виявляючи та реагуючи на перешкоди на дорозі, системи ADAS допомагають водіям керувати автомобілями, “страхуючи” їх від неточних рухів та неправильних реакцій. Однак дослідники сказали, що їм вдалося створити “фантомні” зображення, які вважалися б за перешкоду, смугу руху або дорожній знак та використовувати проектор для передачі “фантомного” зображення в полі зору автопілотів і обманути систему автопілота, щоб вона вважала, що перешкоди справжні.
“Відсутність розгорнутої системи автомобільного зв’язку, яка заважає передовим системам допомоги водінню (ADAS) та автопілотам напів/повністю автономних автомобілів перевіряти своє віртуальне сприйняття щодо фізичного оточення автомобіля, використовувалася в різних атаках , які були відтворені дослідниками “, – сказала команда дослідників з університету Бен-Гуріона в Негеві минулого тижня (вони представили дослідження на конференції Cybertech Israel в Тель-Авіві минулого тижня).
Для розробки експериментальної фантомної атаки, що підтверджує концепцію, дослідники розглядали дві поширені технології ADAS. Ці дві системи – Mobileye 630 PRO (використовується в транспортних засобах, таких як Mazda 3) і система автопілотів HW 2.5 Tesla, яка вбудована в Tesla Model X. За шкалою від рівня 0 (без автоматизації) до рівня 5 (повна автоматизація) ці дві системи вважаються автоматизацією “рівня 2”. Це означає, що вони підтримують напівавтономне водіння, діючи як автопілот, але все ж потребують водія-людину для моніторингу та втручання. Ці системи використовують різні датчики глибини та відеокамери для виявлення перешкод на дорозі в межах 300 метрів.
Щоб створити атаку, дослідники просто розробили зображення, яке потрібно проектувати на якусь поверхню або взагалі “у повітря” (як голограму) – без жодних складних технічних вимог, крім того, щоб зробити зображення яскравим та чітким для того, щоб його можна було “помітити” за технологіями ADAS.
“При проектуванні зображень на вертикальні поверхні (як це було у випадку з дроном) проекція дуже проста і не вимагає особливих зусиль”, – сказав Бен Нассі, один із дослідників Негевського університету Бен-Гуріона. “Під час проектування зображень на горизонтальні поверхні (наприклад, людина, що стоїть на дорозі), нам довелося перенести зображення, щоб воно виглядало прямо на камері автомобіля, оскільки ми проектували зображення збоку дороги. Ми також підвищили яскравість та контраст зображення, щоб зробити його більш помітним, оскільки справжня дорога не так добре відбиває світло “.
Потім вони спроектували ці фантомні зображення на сусідні цільові транспортні засоби, або вбудовані в рекламу на цифрових рекламних щитах, або через портативний проектор, встановлений на безпілотнику. В одному випадку дослідники показали, як їм вдалося змусити Tesla Model X раптово гальмувати завдяки фантомному зображенню, сприйнятому як людина, яке було проектоване перед автомобілем. В іншому випадку вони змогли змусити систему Tesla Model X повернути на смуги зустрічного руху, проектуючи фантомні смуги, які направляли машину на інший бік дороги.
Дослідники заявили, що такі “фантомні” атаки ще не зустрічалися в реальності. Однак вони попереджають, що для нападів не потрібна спеціальні знання або складна апаратура (безпілотник і портативний проектор коштують лише декілька сотень доларів, наприклад), і якщо зловмисник використовує дрон, атаки можуть бути реалізовані дистанційно.
Дослідники кажуть, що фантомні атаки не є вразливими місцями безпеки, але натомість “відображають фундаментальний недолік моделей розпізнавання зображень, які не були навчені розрізняти реальні та підроблені об’єкти”.
Але представники виробників машин з автопілотом казали дослідникам, що так і повинно бути – система бачить зображення і відповідно реагує на нього, але вона не повинна на даному етапі “задумуватися” над тим – справжній це об’єкт чи навпаки проекція. Зокрема, представники Tesla вважали, що методика дослідження некоректна, тому що використовує ще “сирий” функціонал розпізнавання зображення, який не потрапив у серійні автомобілі, а був використаний лише у тестовій прошивці.
Дослідники зі свого боку стверджують, що налаштування систем ADAS таким чином, щоб вони враховували контекст об’єктів, відбите світло та тип поверхні допомогло б вирішити проблему, оскільки це забезпечило б краще виявлення фантомних зображень.
Зверніть увагу, дослідники Google виявили у браузері Apple Safari численні уразливості, що дозволяли стежити за активністю користувачів в Інтернеті.
Цікаво, що поки не вийшло офіційне виправлення від Microsoft, на платформі 0patch став доступний тимчасовий мікропатч для уразливості, яку активно зараз експлуатують, – CVE-2020-0674 з віддаленого виконання коду в браузері Internet Explorer 11.
Також Apple передумала давати користувачам iPhone можливість шифрувати дані, які зберігаються в iCloud.
Окрім цього, фахівці представили зразок здирницького програмного забезпечення, яке шифрує файли за допомогою компонента Windows.
Мобільний телефон генерального директора Amazon Джеффа Безоса зламали за допомогою шкідливого відео, відправленого через повідомлення в месенджері WhatsApp.