Компанія Anthropic, розробник чат-бота Claude, суттєво переглянула свою Політику відповідального масштабування (Responsible Scaling Policy, RSP), відмовившись від жорстких обмежень на розробку ШІ-моделей. Нова версія документа замінює обов’язкову зупинку розробки обіцянкою прозорості, що може вплинути на безпекові стандарти всієї індустрії.
Якою була попередня безпекова політика Anthropic
У 2023 році Anthropic взяла на себе зобов’язання припиняти навчання ШІ-моделей, якщо їхні можливості випереджатимуть здатність компанії довести їхню безпечність. Перелік критичних ризиків, що мали стати підставою для зупинки розробки, включав:
- моделі, здатні допомагати у створенні або застосуванні хімічної, біологічної чи ядерної зброї;
- моделі, здатні надмірно самовдосконалюватися;
- моделі, здатні сприяти кібератакам;
- моделі, здатні діяти без участі людини, зокрема «втікати» зі свого середовища, уникаючи вимкнення.
RSP встановлювала жорстку межу — Anthropic зобов’язувалася зупинити розробку, навіть якщо це означало відставання від конкурентів. Це була сміливе рішення в індустрії, де всі прагнуть рухатися вперед якомога швидше.
Що змінилося у версії RSP 3.0
У новій, третій версії Політики відповідального масштабування компанія значно пом’якшила правила. Тепер Anthropic призупинятиме розробку лише за умови, що вже має значну перевагу над конкурентами. Обов’язкове зобов’язання зупинитися замінене обіцянкою бути прозорою щодо досягнення безпекових цілей та відповідати рівню безпеки конкурентів або перевищувати його. Фактично попередня безпекова гарантія перестала існувати.
Можливі наслідки для індустрії ШІ
Ці зміни можуть створити небезпечний прецедент. Anthropic вважалася золотим стандартом безпекових практик у галузі штучного інтелекту, і послаблення її політики суттєво знижує планку для всієї індустрії. Такий крок може сигналізувати конкурентам, що безпека поступається пріоритетом перед інноваціями. Хоча це може допомогти Claude скоротити відставання від ChatGPT, загальний напрямок викликає занепокоєння.
Водночас, якщо ризики, про які попереджають критики ШІ, справді мають бути відвернені, безпекових зобов’язань однієї компанії недостатньо — вся індустрія має об’єднатися та встановити чіткі межі. Наразі, на жаль, це видається дедалі менш імовірним.

