Попри запровадження жорстких європейських законів (DSA) та постійні заяви технологічних гігантів про посилення безпеки, ринок маніпуляцій у соціальних мережах не просто живий — він еволюціонує.
- Що і як досліджували
- Хто найкраще видаляє ботів: рейтинг соцмереж
- Скільки коштує обманути алгоритми?
- Штучний інтелект створює ботів нового покоління
- Пропаганда змінює вектор: від локальної політики до армії КНР
- Крипта — фінансовий щит ботоферм
- ШІ на службі маніпуляторів: автоматизація без меж
- Що з цим робити: рекомендації звіту
- Що це означає для звичайних користувачів
Центр передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) щороку проводить масштабний експеримент: дослідники самі купують фейкові підписники, лайки, коментарі та перегляди на основних соціальних платформах — щоб перевірити, наскільки добре ці платформи здатні виявляти та видаляти неавтентичну активність.
У 2026 році вийшов уже шостий звіт цієї серії. Результати тривожні: маніпуляції лишаються дешевими та доступними, боти стають розумнішими, а платформи — попри певний прогрес — досі не справляються із проблемою системно.
Що і як досліджували
Між вереснем і листопадом 2025 року дослідники зареєстрували 28 підроблених акаунтів на семи платформах: Facebook, Instagram, X (колишній Twitter), TikTok, YouTube, VKontakte та Bluesky. На цих акаунтах вони публікували 126 постів і купували для них «накрутку» у десяти комерційних провайдерів маніпуляцій з різних куточків світу.
Загальна сума витрат — €252. За ці гроші дослідникам доставили:
- 17 553 фейкові коментарі
- 37 814 лайків
- 16 025 репостів
- 27 653 перегляди
Сукупно в цих взаємодіях взяли участь понад 30 000 унікальних підроблених акаунтів.
Також вперше в рамках цього дослідження було перевірено рекламні інструменти платформ: за €130 через куплені фейкові рекламні акаунти вдалося отримати 206 234 перегляди та 200 лайків, а ще за €121 — 17 442 фейкові коментарі під рекламними постами.
Хто найкраще видаляє ботів: рейтинг соцмереж
Рівень видалення підроблених акаунтів досяг рекордного показника: в середньому 50,4% ідентифікованих фейкових акаунтів було видалено впродовж п’яти тижнів після купівлі. Для порівняння: у 2021 році видаляли лише 20%, у 2024-му — 13%.
Та результати між платформами різняться кардинально:
| Платформа | Видалено акаунтів | Залишилось фейкової активності |
|---|---|---|
| VKontakte | 96% | 70,35% |
| X | 82% | 43,41% |
| YouTube | 55% | 56,20% |
| Bluesky | 55% | 100% |
| 39% | 79,40% | |
| 22% | 84,03% | |
| TikTok | 4% | 68,13% |
Попри те, що VKontakte видалив майже всі акаунти, фейкові лайки та коментарі на постах нікуди не зникли — вони лишилися активними. X та YouTube показали найкращий результат у видаленні самої фейкової активності: на X після чотирьох тижнів залишилося лише 43% куплених взаємодій, на YouTube — 56%.
Скільки коштує обманути алгоритми?
Набір базових фейкових взаємодій — 100 лайків, 100 коментарів, 1000 переглядів, 100 підписників — коштує від менш ніж €1 до кількох євро залежно від платформи. Bluesky виявився найдешевшим варіантом; X у 2025 році став найдорожчим, але при цьому 156 000 фейкових переглядів там можна купити всього за €10.
Рекламна маніпуляція дорожча й складніша, але теж реальна: дослідники без проблем придбали готові рекламні акаунти для Meta, TikTok та YouTube. На Instagram після 72 годин кількість доставлених фейкових коментарів під рекламою перевищила замовлену утричі (340% від очікуваного).
Штучний інтелект створює ботів нового покоління
Це, мабуть, найтривожніший висновок звіту. Якщо раніше боти діяли прямолінійно — масово спамили однотипними коментарями й діяли у замкнених мережах між собою — то сучасні підроблені акаунти поводяться принципово інакше.
За даними компанії Cyabra, яка аналізувала поведінку ботів для цього звіту, нова генерація фейкових акаунтів:
- Вбудовується в реальні дискусії, коментуючи пости журналістів, інфлюенсерів та публічних осіб — замість того, щоб просто публікувати контент на власних сторінках
- Генерує контекстно-доречні коментарі кількома мовами, які відповідають тону та темі оригінального поста
- Підтримує низьку активність протягом тривалого часу, щоб не привертати увагу систем виявлення
- Взаємодіє з реальними користувачами, а не лише між собою
Як приклад у звіті наводиться аналіз онлайн-дискусії навколо інциденту з російським дроном у польському повітряному просторі у вересні 2025 року: серед 3 622 проаналізованих акаунтів 22% виявилися неавтентичними — і всі вони активно просували наративи, що знімали відповідальність з росії.
Пропаганда змінює вектор: від локальної політики до армії КНР
Більшість комерційних ботів, як і раніше, просувають криптовалютні схеми та рекламний спам. Але з кожним роком частка політичного контенту зростає.
У 2025 році дослідники зафіксували різке збільшення прокитайського контенту. На Facebook, X, YouTube та TikTok боти з досліджуваної вибірки масово поширювали матеріали, що прославляли військову міць Китаю: відео ракетних пусків, військово-морських операцій, церемоній введення в дію нових кораблів. На X боти репостили публікації з тезою про перевагу китайської армії над американською. На TikTok — контент, що одночасно прославляв армії Китаю та росії.
У VKontakte боти, як і раніше, служать підсилювачем проросійських наративів — зокрема фантазій про «визволення» Аляски та реваншистського контенту з посиланням на «СВО 2.0».
Instagram виявився єдиною платформою, де дослідники не виявили жодного бота, що поширював би політичний чи військовий контент.
Крипта — фінансовий щит ботоферм
Усі 10 провайдерів маніпуляцій, з якими працювали дослідники, приймають оплату виключно у криптовалюті — Bitcoin, MATIC або USDT. Фінансова розвідка Латвії, яка брала участь у дослідженні, провела аналіз транзакцій.
Висновки невтішні: з 10 транзакцій лише 4 вдалося простежити від початку до кінця. Решта 6 проходили через гаманці платіжних посередників (Cryptomus, Heleket), де кошти різних клієнтів змішувалися — і відстежити конкретний грошовий потік стає неможливо без прямої співпраці з цими сервісами або судових запитів.
При цьому обсяги коштів, що обертаються в цій індустрії, вражають. Один провайдер з росії (у звіті — RU1) отримав за 26 місяців близько 265 261 доларів. Інший, з Великої Британії (UK2), — 123 714 доларів за 28 місяців.
Крім того, звіт зазначає, що обслуговування гаманця RU1 через Binance потенційно порушує санкційні обмеження ЄС щодо росії (Регламент ЄС №833/2014, стаття 5b(2)).
ШІ на службі маніпуляторів: автоматизація без меж
Окремий розділ звіту присвячений перевірці того, наскільки легко сьогодні автоматизувати виробництво та розповсюдження дезінформаційного контенту.
Відповідь: дуже легко і дуже дешево.
Дослідники зібрали повністю автоматизований конвеєр: промпти зберігаються у Google Таблицях, ChatGPT генерує текст, Freepik API — зображення та відео, а комерційний оркестратор публікує все це через підроблені акаунти на всіх платформах одночасно. Жодного ручного втручання після початкового налаштування.
За €10 такий конвеєр може виробити тисячі зображень або сотні відео за допомогою різних ШІ-інструментів (Classic Fast, Flux, Seedream, Gemini 2.5 Flash, Kling тощо).
Що з цим робити: рекомендації звіту
Автори звіту пропонують кілька ключових підходів до протидії:
1. Поведінкова детекція замість текстового аналізу. Виявляти ботів за патернами поведінки — синхронністю дій, структурою зв’язків між акаунтами, часовими закономірностями — а не лише за вмістом постів.
2. Безперервний моніторинг замість реакції на кампанії. Відстежувати, як наративи розвиваються з часом і де вони проникають у реальні дискусії.
3. Аналіз цілих розмов, а не окремих постів. Боти нового покоління ховаються в коментарях під постами реальних людей — їх не видно, якщо аналізувати лише ізольовані публікації.
4. «Простежте за грошима». Великі фінансові потоки в бік провайдерів маніпуляцій є індикатором стратегічних операцій впливу. Фінансова розвідка має стати частиною аналізу інформаційних загроз.
5. Санкції проти провайдерів маніпуляцій. Компанії, що пропонують послуги накрутки, мають каратися на рівні регуляторів і платформ.
Що це означає для звичайних користувачів
Коли ви бачите публікацію з тисячами лайків — це ще не означає, що її підтримують тисячі реальних людей. Коли під постом журналіста чи відомого блогера з’являються «стурбовані громадяни» з влучними коментарями — деякі з них можуть бути ШІ-ботами, що навмисно скеровують дискусію в потрібний напрямок.
Ключові ознаки, на які варто звертати увагу:
- Акаунти без реальної історії або зі штучно виглядаючим контентом
- Однотипні або надто «відполіровані» коментарі під гострими темами
- Різке збільшення активності під певним контентом за короткий час
- Акаунти, що коментують переважно контент публічних осіб, а не ведуть власної діяльності
Цифрова грамотність — уміння критично оцінювати те, що бачите в соцмережах — залишається найефективнішим захистом від маніпуляцій, які індустрія вже виробляє у промислових масштабах.
Повний звіт «Social Media Manipulation for Sale: 2025 Experiment on Platform Capabilities to Detect and Counter Inauthentic Social Media Engagement» підготовлений Центром передового досвіду зі стратегічних комунікацій НАТО (NATO StratCom COE) і опублікований у січні 2026 року. ISBN: 978-9934-619-74-8.

