Anthropic різко припинила доступ OpenAI до своєї моделі Claude через API, посилаючись на порушення умов обслуговування. Рішення, оголошене в п’ятницю пізно ввечері, з’явилося на тлі повідомлень про те, що інженери OpenAI використовували передові інструменти кодування Claude для вдосконалення своєї майбутньої моделі GPT-5.
За словами представника Anthropic, таке використання безпосередньо суперечить заборонам на застосування їхніх технологій для розробки конкуруючих ШІ-систем. OpenAI, зі свого боку, спростовує звинувачення, стверджуючи, що лише проводила тести для порівняння – звичайну практику в індустрії.
Деталі конфлікту
Джерела повідомляють, що Anthropic виявила незвичайні патерни активності в API-використанні OpenAI, що спонукало до внутрішнього розслідування. Перевірка нібито виявила докази використання Claude не лише для оцінки, а й для ітеративних покращень кодової бази GPT-5 – моделі нового покоління, яка має просунути межі в обробці природної мови та мультимодальних можливостях.
Ключові факти:
- Anthropic скасувала доступ OpenAI до Claude API після виявлення, що інженери OpenAI використовували Claude Code для підготовки до запуску GPT-5
- OpenAI інтегрувала Claude у внутрішні інструменти через API розробника для систематичного порівняння з власними моделями
- Тестування включало кодування, креативне письмо та безпекові відповіді на чутливий контент
Позиції сторін
Anthropic: “Claude Code став улюбленим вибором програмістів у всьому світі, тому не дивно було дізнатися, що технічний персонал OpenAI також використовував наші інструменти кодування перед запуском GPT-5. На жаль, це пряме порушення наших умов обслуговування.”
OpenAI: “Це стандартна галузева практика – оцінювати інші ШІ-системи для порівняння прогресу та покращення безпеки. Хоча ми поважаємо рішення Anthropic скасувати наш API-доступ, це розчаровує, враховуючи, що наш API залишається доступним для них.”
Історичний контекст
Це не перше тертя між двома компаніями. Походження Anthropic сягає 2021 року, коли відбувся розкол з OpenAI через різні бачення безпеки ШІ. Відтоді Anthropic залучила фінансування від Amazon та Google, досягнувши оцінки понад 18 мільярдів доларів, тоді як OpenAI, підтримувана Microsoft, володіє ще більшими ресурсами.
Наслідки для індустрії
Скасування доступу може мати негайний операційний вплив на OpenAI, змушуючи інженерів переходити на внутрішні інструменти або альтернативних постачальників, таких як Gemini від Google або серія Llama від Meta.
Аналітики зазначають, що це не просто суперечка між конкурентами, а симптом зрілих ринків ШІ, де компанії посилюють контроль над своїми фундаментальними моделями для захисту конкурентних переваг.
Стратегічні наслідки
Рішення Anthropic з’явилося в особливо чутливий момент, коли OpenAI входить у те, що інсайдери описують як повноцінний “кризовий режим” за кілька тижнів до запуску GPT-5. Інвестори уважно спостерігають, деякі припускають, що це може підвищити привабливість Anthropic для партнерів, які остерігаються домінування OpenAI.
Експерти прогнозують, що це може прискорити тенденцію до ізольованої розробки ШІ, де фірми накопичують можливості замість того, щоб ділитися ними. Врешті-решт, цей епізод розкриває хитку рівновагу між співпрацею та конкуренцією на арені високих ставок ШІ.
Джерело: на основі звітів від WIRED, TechCrunch, BleepingComputer та інших провідних технологічних видань.

