OpenAI оприлюднила подробиці своєї угоди з Міністерством оборони США після того, як переговори між Anthropic та Пентагоном зазнали краху. За власним визнанням генерального директора компанії Сема Альтмана, угода була «явно поспішною», а «зовнішній вигляд ситуації не виглядає добре».
Контекст: Anthropic під тиском
Після того як у п’ятницю переговори між Anthropic та Пентагоном зірвалися, президент Дональд Трамп наказав федеральним відомствам припинити використання технологій Anthropic після шестимісячного перехідного періоду. Міністр оборони Піт Хеґсет офіційно визнав AI-компанію ризиком для ланцюга постачань.
На цьому тлі OpenAI швидко оголосила про укладення власної угоди щодо розгортання своїх моделей у секретних середовищах. Оскільки Anthropic заявила, що встановлює «червоні лінії» щодо використання своїх технологій в автономних системах озброєння та масовому стеженні всередині країни, а Альтман запевнив, що OpenAI дотримується тих самих обмежень, виникли закономірні питання: чи чесна OpenAI щодо своїх запобіжників і чому їй вдалося досягти угоди там, де Anthropic зазнала невдачі?
Що забороняє угода
У відповідь на критику OpenAI опублікувала розгорнутий допис у блозі, в якому визначила три сфери, де її моделі не можуть застосовуватися: масове внутрішнє стеження, автономні системи зброї та «автоматизовані рішення з високими ставками (наприклад, системи на зразок «соціального рейтингу»)».
Компанія наголосила, що, на відміну від інших AI-розробників, які «скоротили або скасували свої засоби безпеки та покладаються переважно на політику використання як основний захист у розгортаннях у сфері національної безпеки», угода OpenAI захищає її «червоні лінії» за допомогою «ширшого багаторівневого підходу».
«Ми зберігаємо повний контроль над нашим стеком безпеки, розгортаємо через хмару, в процесі задіяні перевірені співробітники OpenAI, і ми маємо надійні договірні захисти — усе це доповнюється чинними нормами законодавства США», — йдеться в публікації.
Суперечки навколо стеження
Після публікації техноаналітик Майк Мазнік з Techdirt стверджував, що угода «абсолютно допускає внутрішнє стеження», оскільки в ній зазначено, що збір приватних даних відповідатиме виконавчому наказу 12333. На думку Мазніка, цей наказ є механізмом, за допомогою якого АНБ приховує внутрішнє стеження, перехоплюючи комунікації через лінії за межами США — навіть якщо ці комунікації містять дані американців.
У відповідь Катріна Мулліган, керівниця відділу партнерства OpenAI у сфері національної безпеки, написала у LinkedIn, що значна частина дискусії навколо формулювань контракту передбачає, ніби «єдине, що стоїть між американцями та використанням AI для масового стеження й автономної зброї, — це один пункт політики використання в одному контракті з Міністерством оборони».
«Так це не працює, — зазначила Мулліган. — Архітектура розгортання важливіша за мову контракту. Обмежуючи наше розгортання хмарним API, ми гарантуємо, що наші моделі не можуть бути безпосередньо інтегровані в системи озброєнь, сенсори або інше операційне обладнання».
Репутаційні наслідки
Альтман також відповідав на запитання щодо угоди в мережі X, визнавши, що вона спричинила значну хвилю критики на адресу OpenAI. Зокрема, у суботу ChatGPT поступився першим місцем в App Store від Apple конкуруючому застосунку Claude від Anthropic.
Попри це, Альтман пояснив мотивацію компанії: «Ми справді хотіли де-ескалувати ситуацію і вважали, що запропонована угода є прийнятною. Якщо ми маємо рацію і це справді призведе до де-ескалації між Міністерством оборони та галуззю, ми виглядатимемо геніями і компанією, яка взяла на себе значний тягар заради блага індустрії. Якщо ні — нас і далі характеризуватимуть як поспішних і необережних».

