Компанія Anthropic повідомила, що китайська державна хакерська група GTG-1002 провела кібершпигунську операцію, яка була значною мірою автоматизована через зловживання моделлю штучного інтелекту Claude Code. Однак експерти з кібербезпеки ставлять під сумнів достовірність цих заяв.
Хвиля скептицизму в безпековій спільноті
Кілька провідних експертів з кібербезпеки висловили сумніви щодо правдивості заяв Anthropic. Вони вказують на відсутність конкретних технічних деталей та доказів, які б підтверджували масштабне використання Claude AI в кібератаках. Дослідники безпеки та фахівці з ШІ назвали звіт “вигаданим“, а компанію звинуватили в перебільшенні масштабів інциденту.
“Погоджуюся з оцінкою Джеремі Кірка щодо звіту Anthropic про генеративний ШІ. Це дивно. Їхній попередній звіт теж був таким”, — написав у Mastodon експерт з кібербезпеки Кевін Бомонт. “Операційний вплив, ймовірно, має бути нульовим — існуючі засоби виявлення працюватимуть для інструментів з відкритим кодом. Повна відсутність індикаторів компрометації знову вказує на те, що вони не хочуть, щоб їх викрили через це”.
Інші дослідники стверджують, що звіт перебільшує реальні можливості сучасних систем ШІ.
“Ця історія від Anthropic — маркетингова пустушка. ШІ дає потужний імпульс, але це не Skynet, він не думає, це насправді не штучний інтелект (це маркетинговий термін, який придумали люди)”, — написав дослідник кібербезпеки Деніел Кард.
Експерти також звертають увагу на те, що Anthropic може мати комерційні мотиви для таких заяв, оскільки компанія активно просуває свої рішення з безпеки ШІ.
Відсутність технічних доказів
Значна частина скептицизму пов’язана з тим, що Anthropic не надала жодних індикаторів компрометації щодо цієї кампанії. Більше того, запити BleepingComputer про технічну інформацію стосовно атак залишилися без відповіді.
Деталі заявленої атаки
За словами Anthropic, група GTG-1002 використовувала Claude Code для автоматизації різних етапів кібератаки, включаючи розвідку цілей, створення шкідливого коду та обхід систем безпеки. Компанія стверджує, що зловмисники змогли значно підвищити ефективність своїх операцій завдяки можливостям ШІ.
Anthropic заявляє, що виявила підозрілу активність у своїх системах моніторингу та змогла відстежити зловживання своєю моделлю Claude Code. Компанія стверджує, що негайно заблокувала доступ підозрілих акаунтів та вжила заходів для запобігання подібним інцидентам у майбутньому.
Технічні аспекти використання ШІ в кібератаках
Незалежні дослідники відзначають, що хоча Claude Code та інші моделі ШІ дійсно можуть допомагати в написанні коду, їхні можливості для проведення складних кібератак обмежені. Більшість сучасних ШІ-моделей мають вбудовані обмеження, які перешкоджають створенню шкідливого контенту.
“Поточні моделі ШІ можуть допомогти в базових завданнях програмування, але складні кібератаки все ще вимагають значної людської експертизи”, – пояснює Сара Джонс, дослідниця з Центру стратегічних та міжнародних досліджень.
Реакція індустрії
Заяви Anthropic викликали широке обговорення в індустрії кібербезпеки. Деякі компанії висловили стурбованість потенційним зловживанням ШІ-технологіями, тоді як інші закликають до більш виваженого підходу до оцінки загроз.
Представники інших компаній, що розробляють ШІ, включаючи OpenAI та Google, поки що утримуються від коментарів щодо заяв Anthropic. Однак джерела в індустрії повідомляють, що ці компанії проводять власні розслідування можливого зловживання їхніми технологіями.
Заходи безпеки та майбутні перспективи
Незалежно від достовірності конкретних заяв Anthropic, експерти погоджуються, що потенційне використання ШІ в кібератаках є серйозною проблемою, яка потребує уваги. Компанії, що розробляють ШІ, посилюють заходи безпеки та моніторингу своїх систем.
Anthropic заявила, що планує опублікувати більш детальний звіт про інцидент після завершення розслідування. Компанія також працює з правоохоронними органами та іншими організаціями з кібербезпеки для обміну інформацією про потенційні загрози.
Тим часом експерти радять організаціям не панікувати, але водночас посилити моніторинг своїх систем безпеки та бути готовими до еволюції кіберзагроз у контексті розвитку технологій штучного інтелекту.


