Microsoft оновила документацію про експериментальні AI-агенти в Windows 11, що викликало хвилю занепокоєння щодо потенційних загроз безпеці. Хоча компанія запровадила багаторівневу систему захисту, нові застереження в документах змушують замислитися про реальні ризики.
Що змінилося в документації Microsoft
Оновлення стосується документа «Експериментальні агентські функції», опублікованого в жовтні 2025 року. Microsoft переглянула його два тижні тому, коли увімкнула можливість тестування AI-агентів у preview-версії 26220.7262 для каналів Dev та Beta.
Перший агент — Copilot Actions — отримав експериментальний запуск. Він може працювати з файлами на вашому ПК: організовувати колекції фотографій, видаляти дублікати та виконувати інші завдання. Саме реальний старт тестування змусив користувачів уважніше вивчити умови використання.
Які ризики безпеки виявили
У документації Microsoft відверто попереджає про кілька проблем. По-перше, AI-моделі «іноді можуть галюцинувати та видавати несподівані результати» — вони можуть помилятися або генерувати абсолютні нісенітниці. Це відома особливість LLM (large language model), яка не є новиною для індустрії.
Більше занепокоєння викликає попередження про «нові ризики безпеки, зокрема cross-prompt injection». Цей тип атаки може використовувати AI-системи як вектор для проникнення. Microsoft згадує навіть можливість exfiltration — викрадення ваших файлів через скомпрометованого агента.
Найбільш тривожна фраза з’явилася саме в оновленій версії: «Радимо ознайомитися з цією інформацією та зрозуміти наслідки для безпеки ввімкнення агента на комп’ютері». Це виглядає як застереження про власний ризик, що не додає впевненості.
Як Microsoft захищає систему
Компанія створила спеціальну архітектуру безпеки для AI-агентів. Вони працюють у так званій «робочій області агента» — окремому ізольованому середовищі, де діють як локальний користувач з власним обліковим записом.
Ця система повністю відокремлена від вашого облікового запису з обмеженим доступом до файлів на основі наданих дозволів (окрім кількох стандартних папок). Теоретично це має утримувати агентів у безпечних межах, і навіть якщо їх скомпрометують, можливості для експлуатації системи будуть обмежені.
Чому все ж є підстави для занепокоєння
Головна проблема — довіра до Microsoft після казусу з Recall. Початковий дизайн цієї AI-функції виявився провальним з точки зору безпеки. Хоча компанія стверджує, що врахувала ті помилки, регулярні баги навіть у базових функціях Windows 11 не додають оптимізму.
Наразі Copilot Actions перебуває в суто експериментальній фазі. Працювати з тестовими версіями завжди означає приймати ризики — як із експериментальною операційною системою, яка може «згоріти» разом з вашими файлами.
Справжнє питання: чи буде Microsoft достатньо надійною, коли AI-агенти вийдуть у фінальну версію Windows 11? Якщо в системі знайдеться уразливість, наслідки можуть бути катастрофічними і для користувачів, і для репутації компанії. Microsoft не може дозволити собі сценарій, де AI виходить з-під контролю — відновити довіру після такого буде вкрай складно.



