3 лютого 2026 року опублікований другий Міжнародний звіт з безпеки штучного інтелекту — масштабне дослідження, яке охоплює поточний стан систем загального призначення, нові ризики та підходи до їх управління. Під керівництвом лауреата премії Тюринга Йошуа Бенджіо звіт підготували понад 100 незалежних експертів із понад 30 країн і міжнародних організацій — зокрема ЄС, ОЕСР та ООН.
- ШІ розвивається швидше, ніж встигає регулювання
- Кіберзагрози: ШІ знижує поріг входу для зловмисників
- Біологічні та хімічні ризики
- Сценарії втрати контролю: теорія чи реальна перспектива?
- Ринок праці та вплив на суспільство
- Управління ризиками: що працює, а що — ні
- Відкриті моделі: окремий виклик
- Загальний висновок: адаптивна стійкість замість очікування визначеності
Документ структурований навколо трьох ключових питань: на що здатні сучасні системи ШІ, які ризики вони породжують і як цими ризиками управляти.
ШІ розвивається швидше, ніж встигає регулювання
За рік, що минув після першого видання звіту, можливості систем ШІ загального призначення продовжили стрімко зростати — передусім у математиці, програмуванні та автономній роботі. У 2025 році провідні моделі отримали результати рівня золотої медалі на Міжнародній математичній олімпіаді, перевершили показники експертів рівня PhD на наукових тестах та почали виконувати складні інженерні завдання в автономному режимі.
Не менш промовистою є динаміка поширення технологій. За даними звіту, ChatGPT від OpenAI щотижня використовують близько 700 мільйонів осіб — утричі більше, ніж роком раніше. Разом із тим охоплення залишається нерівномірним: у значній частині Африки, Азії та Латинської Америки рівень використання ШІ-інструментів, ймовірно, не перевищує 10% населення. Ця нерівність безпосередньо впливає на безпеку, адже країни з низьким рівнем впровадження часто мають обмежений доступ до захисних інструментів та інфраструктури реагування на інциденти.
Компанії тим часом оголосили про безпрецедентні інвестиції — понад 100 мільярдів доларів США — у розвиток центрів обробки даних для підтримки масштабніших тренувальних прогонів і ширшого розгортання систем.
Кіберзагрози: ШІ знижує поріг входу для зловмисників
Серед усіх категорій ризиків кібербезпека має найбільш конкретну емпіричну доказову базу. Звіт фіксує, що розробники ШІ дедалі частіше повідомляють про використання своїх систем у кіберопераціях. На нелегальних онлайн-майданчиках вже продаються готові ШІ-інструменти, що знижують технічний поріг для здійснення атак — зокрема для фішингу, розвідки та автоматизації початкових етапів злому.
Водночас звіт наголошує: станом на початок 2026 року ШІ здебільшого відіграє допоміжну роль — масштабує підготовчі етапи атак, але не виконує їх у повністю автономному режимі. Це, втім, не применшує реальності загрози, а лише окреслює її поточний масштаб.
Окремо виділено так звану проблему подвійного використання: обмежити шкідливе застосування ШІ у кіберсфері без гальмування оборонних інновацій украй складно. Наприклад, розробка ШІ-агентів, що виявляють вразливості раніше за зловмисників, вимагає тих самих можливостей, які можуть бути використані і для атак.
Біологічні та хімічні ризики
Системи ШІ загального призначення здатні допомагати у створенні біологічних і хімічних загроз: надавати лабораторні інструкції, допомагати усувати помилки в експериментальних процедурах, відповідати на технічні запитання та знижувати бар’єри для шкідливих робочих процесів. Звіт, однак, застерігає: реальне збільшення ризику залишається суттєво невизначеним з огляду на практичні перешкоди для виробництва такої зброї. Як і у випадку з кібератаками, ключовий виклик полягає в управлінні ризиками зловживань при збереженні корисних застосувань — зокрема в медицині та фармацевтиці.
Сценарії втрати контролю: теорія чи реальна перспектива?
Окремий розділ звіту присвячений сценаріям, у яких системи ШІ діятимуть поза людським контролем без можливості його відновлення. Такі ситуації можуть виникнути, якщо моделі набудуть здатності ухилятися від нагляду, виконувати довгострокові плани та чинити опір спробам їх відключити.
Поточні системи ще не мають потенціалу для подібних ризиків, проте їх можливості в релевантних областях — зокрема в автономній роботі — зростають. Показово, що з часу публікації попереднього звіту моделі дедалі частіше демонструють здатність розрізняти тестові та реальні умови розгортання та знаходити лазівки в оцінюванні. Це може дозволити небезпечним можливостям залишатися непоміченими до моменту виходу продукту на ринок. Думки експертів щодо ймовірності таких сценаріїв суттєво розходяться.
Ринок праці та вплив на суспільство
Звіт фіксує неоднозначний вплив ШІ на ринок праці. Перші дані свідчать про зниження попиту на легкозамінні види роботи — зокрема написання текстів і переклад — та зростання попиту на навички, що доповнюють ШІ-системи: програмування у сфері машинного навчання, розробку чат-ботів тощо. Нові дослідження не виявляють значного впливу на загальний рівень зайнятості наразі, однак фіксують потенційні наслідки для молодших фахівців у галузях, схильних до автоматизації.
Економісти розходяться в оцінках масштабу майбутніх змін: одні очікують, що втрата робочих місць компенсується появою нових, інші вважають, що широка автоматизація може суттєво знизити рівень зайнятості й заробітних плат.
Управління ризиками: що працює, а що — ні
Звіт систематизує практики управління ризиками, зокрема моделювання загроз, «червоне тестування», оцінювання можливостей, поетапні стратегії виходу на ринок і звітування про інциденти. Особлива увага приділяється підходу «глибокого захисту» (defense-in-depth), за якого технічні, організаційні та суспільні захисні заходи накладаються один на одного, компенсуючи слабкості окремих рівнів.
Разом із тим звіт констатує критичний розрив: попри структурування практик управління ризиками, реальних доказів їх ефективності залишається вкрай мало. Деякі типи збоїв — зокрема «галюцинації» — стали рідшими, але нові проблеми, як-от здатність моделей по-різному поводитися в тестових і реальних умовах, ускладнюють безпекове тестування.
Проаналізовано також Рамкові документи з безпеки ШІ провідних розробників, регуляторні ініціативи — Закон ЄС про ШІ, Китайську структуру управління безпекою ШІ 2.0, процес Хіросіми G7. Висновок звіту категоричний: фрагментоване, повільне або непрозоре управління ризиками вже недостатнє.
Відкриті моделі: окремий виклик
Окрему увагу звіт приділяє моделям з відкритими вагами (open-weight models), які становлять специфічний виклик для безпеки. На відміну від закритих систем, такі моделі після публікації не піддаються централізованому контролю, що ускладнює обмеження їх шкідливого використання.
Загальний висновок: адаптивна стійкість замість очікування визначеності
Міжнародний звіт з безпеки ШІ 2026 формулює базовий виклик так: можливості ШІ розвиваються швидше, ніж накопичуються надійні докази про ризики та ефективні засоби їх пом’якшення. Відповідь, яку пропонує документ, — не чекати на визначеність, а формувати адаптивну стійкість через багаторівневий захист, вдосконалення методів оцінювання та зміцнення інституційних механізмів.
Звіт навмисно уникає конкретних регуляторних рецептів, зосереджуючись на доказовій базі. Для урядів і компаній його ключове послання однозначне: ШІ продовжуватиме змінюватися. Найкраще підготовленими виявляться ті, хто здатен навчатися й адаптуватися швидше, ніж розвиваються ризики.
Повний текст звіту та резюме для директивних органів доступні на сайті internationalaisafetyreport.org.

