Чи можуть чат-боти зі штучним інтелектом бути обдурені так само, як і люди?

Можливо, чат-ботам не варто довіряти всьому, що говорять люди.

4 хв. читання

“Соціальна інженерія” – це випробувана тактика, яку хакери використовують проти людського фактору в системах комп’ютерної безпеки, часто тому, що це простіше, ніж перемогти складну технологію захисту. Чи спрацює цей підхід з новими ботами на основі ШІ, які стають все більш схожими на людей?

Що таке соціальна інженерія?

Не плутати з етично сумнівною концепцією політології, у світі кібербезпеки соціальна інженерія – це мистецтво використання психологічних маніпуляцій, щоб змусити людей робити те, що ви хочете. Якщо ви хакер, ви можете вимагати від людей розголошення конфіденційної інформації, передачі паролів або просто переказу грошей на ваш рахунок.

Існує багато різних хакерських технік, які підпадають під поняття соціальної інженерії. Наприклад, залишення зараженої шкідливим програмним забезпеченням флешки де попало залежить від людської цікавості. Вірус Stuxnet, який знищив обладнання на іранському ядерному об’єкті, можливо, потрапив на ці комп’ютери завдяки підкинутим USB-накопичувачам.

Але це не той тип соціальної інженерії, який тут доречний. Скоріше, тут доречні звичайні атаки, такі як “фішинг зі списом” (цілеспрямовані фішингові атаки) і “претекстинг” (використання фальшивої ідентичності для обману жертв).

Оскільки “людина”, яка розмовляє з вами по телефону або в чаті, майже напевно зрештою виявиться штучним інтелектом, це ставить питання про те, чи буде мистецтво соціальної інженерії все ще ефективним на синтетичних цілях.

Обхід обмежень ШІ вже став реальністю

Є безліч прикладів, коли хтось може вмовити чат-бота порушити його власні правила поведінки або іншим чином зробити щось абсолютно неприйнятне.

В принципі, існування та ефективність джейлбрейкінгу свідчить про те, що чат-боти дійсно можуть бути вразливими до соціальної інженерії. Розробникам чат-ботів доводилося неодноразово зменшувати їхню сферу застосування і встановлювати суворі обмеження, щоб забезпечити їхню належну поведінку, що, схоже, надихає на черговий раунд джейлбрейку, щоб перевірити, чи можна ці обмеження викрити або обійти.

Ми можемо знайти деякі приклади цього, опубліковані користувачами X (раніше Twitter), такими як доктор Періс Баттфілд-Аддісон, яка опублікувала скріншоти, що, очевидно, показують, як можна переконати банківського чат-бота змінити своє ім’я.

F9z4l4TaEAAECsQ

Чи можна захистити ботів від соціальної інженерії?

Ідея про те, що, наприклад, банківського чат-бота можна переконати видати конфіденційну інформацію, справедливо викликає занепокоєння. З іншого боку, першою лінією захисту від такого роду зловживань було б уникати надання таким чат-ботам доступу до такої інформації. Залишається з’ясувати, скільки відповідальності ми можемо покласти на подібне програмне забезпечення без будь-якого людського нагляду.

Зворотний бік цієї проблеми полягає в тому, що для того, щоб ці ШІ-програми були корисними, їм потрібен доступ до інформації. Тож тримати інформацію подалі від них – це не зовсім правильне рішення. Наприклад, якщо програма зі штучним інтелектом займається бронюванням готелів, їй потрібен доступ до даних про гостей, щоб виконувати свою роботу. Побоювання полягає в тому, що спритний шахрай може вмовити штучний інтелект розповісти, хто і в якому номері зупинився в цьому готелі.

Іншим потенційним рішенням може бути використання системи “приятель”, коли один чат-бот стежить за іншим і втручається, коли той починає сходити з рейок. Одним із способів пом’якшити цей метод може стати наявність супервайзера, який перевірятиме кожну відповідь перед тим, як вона буде передана користувачеві.

Зрештою, коли ви створюєте програмне забезпечення, яке імітує природну мову і логіку, цілком логічно, що ті ж методи переконання, які працюють на людях, будуть працювати принаймні на деяких з цих систем.

Джерело: HowToGeek

Поділитися
Exit mobile version