Завдяки генеративному штучному інтелекту кібератаки стануть набагато розумнішими. Ось чого варто очікувати.
В міру того, як технології стають розумнішими завдяки таким розробкам, як генеративний ШІ, так само стають розумнішими і атаки на кібербезпеку. Новий прогноз Google щодо кібербезпеки показує, що розвиток штучного інтелекту призводить до нових загроз, про які вам слід знати.
У середу компанія Google представила “Прогноз кібербезпеки хмарних сервісів Google до 2024 року” – звіт, створений у співпраці з численними командами з безпеки хмарних сервісів Google, який глибоко занурюється в кіберпростір на наступний рік.
У звіті йдеться про те, що генеративний ШІ та великі мовні моделі (LLM) будуть використовуватися в різних кібератаках, таких як фішинг, SMS-розсилки та інші операції соціальної інженерії з метою надання контенту і матеріалам, таким як голос і відео, більш легітимного вигляду.
Наприклад, такі явні ознаки фішингових атак, як орфографічні та граматичні помилки, а також відсутність культурного контексту, буде складніше виявити при використанні генеративного ШІ, оскільки він чудово імітує природну мову.
В інших випадках зловмисники можуть завантажити в LLM легітимний контент і згенерувати модифіковану версію, яка відповідає цілям зловмисника, але зберігає той самий стиль, що й оригінальний вхідний код.
У звіті також прогнозується, що LLM та інші інструменти генеративного ШІ, які пропонуються як платні послуги, щоб допомогти зловмисникам розгортати свої атаки більш ефективно і з меншими зусиллями, будуть розвиватися все більше і більше.
Втім, зловмисний ШІ або LLM навіть не будуть абсолютно необхідними, оскільки використання генеративного ШІ для створення контенту, наприклад, нагадування про рахунок, саме по собі не є зловмисним, але може бути використано зловмисниками для націлювання на жертв у власних цілях.
Наприклад, раніше Cybercalm вже писав про те, як шахраї використовують ШІ, щоб видавати себе за голоси членів сім’ї або друзів, які потребують допомоги, щоб виманити у них гроші.
Ще одна потенційна загроза від ШІ – інформаційні операції. Просто використовуючи підказки ШІ, зловмисники можуть використовувати моделі генеративного ШІ для створення фейкових новин, фальшивих телефонних дзвінків, а також підроблених фотографій і відео (так званих діпфейків).
Згідно зі звітом, ці операції можуть увійти в основний новинний цикл. Масштабованість цих операцій може знизити довіру громадськості до новин та онлайн-інформації до такої міри, що люди стануть більш скептичними або перестануть довіряти новинам, які вони споживають.
“Це може ускладнити взаємодію бізнесу та урядів зі своєю аудиторією в найближчому майбутньому”, – йдеться у звіті.
Хоча зловмисники використовують ШІ для посилення своїх атак, кіберзахисники також можуть використовувати цю технологію, щоб протистояти їм за допомогою більш просунутих засобів захисту.
“ШІ вже надає величезну перевагу нашим кіберзахисникам, дозволяючи їм покращити можливості, зменшити трудомісткість і краще захищати від загроз, – сказав Філ Венейблз, директор з інформаційної безпеки Google Cloud on AI. “Ми очікуємо, що ці можливості та переваги різко зростуть у 2024 році, оскільки захисники володітимуть технологією і, таким чином, керуватимуть її розвитком з урахуванням конкретних випадків використання”.
Деякі випадки використання генеративного ШІ для захисників включають його використання для синтезу великих обсягів даних, отримання дієвих виявлень і швидкого реагування на них.
Джерело: ZDNET