Агентний штучний інтелект компанії Anthropic, Claude, був “озброєнням” у високорівневих кібератаках, згідно з новим звітом, опублікованим компанією. Вона стверджує, що успішно припинила діяльність кіберзлочинця, чия схема вимагання під назвою “vibe hacking” була спрямована проти щонайменше 17 організацій, включаючи деякі структури охорони здоров’я, служби екстреного реагування та державні установи.
Anthropic повідомляє, що хакер намагався вимагати від деяких жертв шестизначні суми викупу, щоб запобігти оприлюдненню їхніх персональних даних, з “безпрецедентною” допомогою ШІ. У звіті стверджується, що Claude Code, агентний інструмент програмування від Anthropic, використовувався для “автоматизації розвідки, збору облікових даних жертв і проникнення в мережі”. ШІ також застосовувався для прийняття стратегічних рішень, надання порад щодо того, які дані атакувати, і навіть створення “візуально тривожних” записок із вимогами викупу.
Окрім передачі інформації про атаку відповідним органам, Anthropic заблокувала відповідні облікові записи після виявлення злочинної діяльності та з тих пір розробила автоматизований інструмент перевірки. Компанія також впровадила швидший і ефективніший метод виявлення подібних майбутніх випадків, але не уточнює, як він працює.
У звіті (який можна прочитати повністю тут) також детально описується участь Claude у шахрайській схемі працевлаштування в Північній Кореї та розробці програм-вимагачів, згенерованих ШІ. Спільною темою трьох випадків, за словами Anthropic, є те, що високореактивна природа ШІ, здатна до самонавчання, означає, що кіберзлочинці тепер використовують його з операційних причин, а не лише для отримання порад. ШІ також може виконувати роль, яка раніше вимагала би цілої команди людей, при цьому технічні навички більше не є такою перешкодою, як раніше.
Claude — не єдиний ШІ, який використовувався в злочинних цілях. Минулого року OpenAI повідомила, що її генеративні інструменти ШІ використовувалися кіберзлочинними групами, пов’язаними з Китаєм і Північною Кореєю, причому хакери застосовували генеративний ШІ для налагодження коду, дослідження потенційних цілей і складання фішингових електронних листів. OpenAI, чию архітектуру Microsoft використовує для живлення свого власного ШІ Copilot, заявила, що заблокувала доступ цих груп до своїх систем.


