Попри ультиматум міністра оборони США Піта Хеґсета, компанія Anthropic заявила, що не може «за велінням сумління» погодитись на вимогу Пентагону прибрати захисні обмеження зі свого штучного інтелекту. Про це генеральний директор компанії Даріо Амодеї написав у корпоративному блозі.
Раніше Міністерство оборони погрожувало розірвати контракт на 200 мільйонів доларів і оголосити Anthropic «ризиком для ланцюга постачань», якщо компанія не погодиться зняти обмеження щодо масового стеження та автономних систем озброєння.
«Ми надаємо перевагу продовженню співпраці з Міністерством оборони та американськими військовими — але лише за умови збереження двох запитаних нами захисних заходів,» — зазначив Амодеї. «Ми готові продовжувати роботу на підтримку національної безпеки Сполучених Штатів.»
У відповідь заступник міністра оборони Еміл Майкл у публікації в X звинуватив Амодеї в тому, що той «прагне не чого іншого, як особистого контролю над американською армією, і готовий ризикувати безпекою країни».
Суть конфлікту
Протистояння розпочалося після того, як Пентагон зажадав від Anthropic зробити її ШІ-модель Claude доступною «для будь-яких законних цілей» — включно з масовим стеженням і розробкою повністю автономних систем озброєння, здатних уражати цілі без участі людини. Anthropic відмовилась надавати свої технології для таких задач навіть за умови вбудованого «стеку безпеки» в модель.
За даними видання Axios, Хеґсет поставив компанії жорсткий дедлайн: погодити умови Пентагону до 17:01 у п’ятницю. Одночасно відомство ініціювало оцінку залежності від Claude — попередній крок перед можливим присвоєнням Anthropic статусу «ризику для ланцюга постачань». Як зазначила сама компанія, цей статус традиційно застосовується до фірм із ворожих держав на кшталт Китаю і «жодного разу не використовувався щодо американської компанії».
Позиція Anthropic
Амодеї відмовився змінювати свою позицію та заявив, що якщо Пентагон вирішить відмовитись від послуг компанії, Anthropic «докладе зусиль для забезпечення плавного переходу до іншого постачальника, аби уникнути будь-яких збоїв у поточному військовому плануванні, операціях чи інших критичних місіях».
Серед можливих альтернатив, які розглядає Міністерство оборони, — Grok, Gemini від Google та OpenAI.
Втім, відмова від Claude може виявитися для військових непростим завданням. До цього часу модель Anthropic була єдиною, дозволеною для найчутливіших завдань у сферах розвідки, розробки озброєнь і бойових операцій. Зокрема, повідомляється, що Claude застосовувався під час операції у Венесуелі, в ході якої американські військові вивезли з країни президента Ніколаса Мадуро та його дружину.
Репутаційний вимір
Компанії у сфері штучного інтелекту давно критикують за потенційну шкоду користувачам, однак масове стеження та розробка летальних автономних систем виводять цю проблему на принципово інший рівень. Відповідь Anthropic на тиск Пентагону розглядалась як перевірка її декларованого статусу найбільш безпекоорієнтованої ШІ-компанії — особливо на тлі нещодавньої відмови від ключових положень власного флагманського зобов’язання щодо безпеки.
Тепер, після чіткої позиції Амодеї, увага переміщується до Міністерства оборони: чи наважиться воно виконати свої погрози, реалізація яких може завдати Anthropic серйозної шкоди.

