Уявіть, що пожежна служба раптом оголошує: гасити пожежі більше не є пріоритетом. Приблизно те саме відбувається сьогодні у цифровому просторі — найвпливовіші технологічні компанії світу одна за одною відмовляються від зобов’язань боротися з дезінформацією.
Про це б’є на сполох новий звіт Європейської мережі стандартів фактчекінгу (EFCSN) «Великий відступ», опублікований у березні 2026 року. Його авторами є фахівці з 36 країн — 62 верифіковані організації, що щодня моніторять інформаційний простір. Висновок невтішний: дезінформація не лише підриває демократичну легітимність і довіру до інституцій, але й завдає реальних економічних збитків та шкоди здоров’ю людей.
Феномен «Великого відступу»
Платформи — Meta, Google, YouTube, X — ще нещодавно публічно брали на себе зобов’язання боротися з фейками: підписували кодекси поведінки, фінансували фактчекінг, запроваджували маркування неправдивого контенту. Але після президентських виборів у США 2024 року пріоритети різко змінилися.
Ось промовистий факт: у звіті про ризики однієї з провідних платформ за 2023 рік слово «дезінформація» зустрічалося 77 разів. У звіті за 2025 рік — лише один раз. І то — тільки тому, що воно було у назві заходу, який платформа більше не проводить.
Опитування серед європейських фактчекерів підтверджує: дезінформацію сьогодні як ніколи легко знайти на багатьох платформах, тоді як реакція самих соцмереж є відверто неадекватною.
Скільки фейків у вашій стрічці?
Дослідження, яке охопило шість великих платформ у чотирьох країнах ЄС, показало: значна частка публікацій на суспільно важливі теми містить дезінформацію.
- TikTok — найгірший показник: близько 20% публікацій
- Facebook — 13%
- X/Twitter — 11%
- YouTube та Instagram — близько 8%
- LinkedIn — найкращий результат: лише 2%
Але найтривожніше інше: акаунти з низькою достовірністю отримують у середньому в 7–8 разів більше взаємодій на тисячу підписників, ніж надійні джерела. Дослідники назвали це явище «премією за дезінформацію» — алгоритми самих платформ фактично заохочують поширення фейків.
Скільки коштує брехня?
Дезінформація — це не лише загроза демократії. Це конкретні економічні та медичні збитки.
В економіці. Світовий економічний форум оцінює щорічні глобальні втрати від дезінформації у десятки мільярдів доларів. Фейки підривають репутацію компаній, дестабілізують ринки та відлякують інвесторів. Під регулярні удар потрапляють стратегічні галузі — відновлювана енергетика, 5G, електромобілі.
У сфері здоров’я. Фейки підживлюють недовіру до вакцин та доказової медицини. За підрахунками, лише вагання щодо вакцини від COVID-19 спричинило додаткові витрати на охорону здоров’я на 2 мільярди доларів.
Google і YouTube: тихий відступ
Особливо показова ситуація з Alphabet — материнською компанією Google і YouTube.
У червні 2025 року Google непомітно оголосив (у маловідомому блозі для розробників), що більше не відображатиме у пошуку спеціальну «позначку фактчекінгу». Ця функція протягом десяти років підсвічувала матеріали фактчекерів і, за даними самого Google, використовувалась понад 120 мільйонів разів лише в ЄС за перше півріччя 2024 року. Рішення прийнято без жодних консультацій зі спільнотою фактчекерів.
Але це лише частина картини. Google також:
- не поновив участь у Глобальному фонді фактчекінгу, куди раніше вклав понад 13 мільйонів доларів
- відмовився від підтримки Європейського фонду медіа та інформації (EMIF) — 25 мільйонів євро
- припинив фінансування окремих організацій, зокрема британської Full Fact, якій раніше надавав понад 1 мільйон фунтів стерлінгів на рік
Показово, що в попередніх звітах Google сам посилався на EMIF аж 29 разів як доказ власних зобов’язань. Тепер — жодного слова пояснення.
Паралельно YouTube тихо видалив зі свого сайту всі сторінки, пов’язані з фактчекінгом, прибрав позначки верифікованих каналів і відписався від зобов’язань у рамках Кодексу поведінки ЄС щодо дезінформації.
Ілюзія безпеки: чому «Нотатки спільноти» не працюють
Намагаючись зняти з себе відповідальність за модерацію, платформи дедалі частіше покладаються на краудсорсингові інструменти. Яскравий приклад — «Нотатки спільноти» (Community Notes), які X (Twitter) запровадив першим, а тепер їх копіюють Meta та TikTok.
Ідея приваблива: тисячі людей разом відловлюють фейки. Але дані розвінчують цей міф:
- Запізнюються: спростування з’являється тоді, коли фейк уже зібрав мільйони переглядів — менш ніж 10% нотаток взагалі стають видимими
- Непомітні: алгоритм не виводить нотатки достатньо широкій аудиторії, а поляризовані теми — де вони найбільш потрібні — вони покривають найгірше
- Не вирішують корінну проблему: система не зупиняє цілеспрямовані кампанії з дезінформації, а анонімність авторів не дає читачеві зрозуміти, хто пише — лікар, журналіст чи випадкова людина
Для порівняння: під час виборів до Європейського парламенту 2024 року менше 15% дезінформації, виявленої фактчекерами на X, мали видиму нотатку спільноти. Натомість Meta за аналогічний період позначила близько 35 мільйонів публікацій у Facebook (тільки в ЄС) через свою програму фактчекінгу.
Генеративний ШІ: нова лінія фронту
Штучний інтелект докорінно змінює ландшафт дезінформації. У грудні 2025 року Європейська обсерваторія цифрових медіа зафіксувала рекорд: 16% всіх перевірених фактчекерами матеріалів стосувалися контенту, створеного або зміненого за допомогою ШІ.
Серед нових загроз:
«ШІ-сміття» (AI Slop). Платформи заполонені дешевим масовим контентом, що маніпулює емоціями заради монетизації. Приклад — групи у Facebook, заповнені фальшивими «архівними» фотографіями, включно з підробленими зображеннями жертв Голокосту.
Дипфейки. ШІ дозволяє створювати відео та аудіо, де реальні особи «говорять» те, чого ніколи не казали. Під удар потрапляли, зокрема, президент Франції Еммануель Макрон та інші публічні політики.
«Дивіденд брехуна». Найнебезпечніший ефект: у світі, де повно фейкових відео, будь-яке реальне відео можна оголосити дипфейком. Правдива інформація знецінюється — і саме це є метою зловмисників.
«Нульовий клік». ШІ-підсумки в пошуку Google призвели до падіння трафіку на сайти незалежних медіа на 15% у 2024 році. Це руйнує фінансову основу якісної журналістики та фактчекінгу.
Фактчекінг — це свобода слова, а не цензура
Останніми роками поширюється небезпечна риторика: фактчекери — це «цензори». Комітет Конгресу США з питань юстиції у лютому 2026 року навіть назвав фактчекінг «іноземною загрозою цензури». Це — маніпуляція, яка перевертає реальність з ніг на голову.
Насправді фактчекери проти видалення контенту. Їхній підхід — маркування, попередження, контекст — залишає за людиною право самій приймати рішення. Це і є справжня свобода слова.
Видаленням контенту займаються самі платформи, причому переважно автоматизованими системами — дешевшими, але значно менш точними і значно частіше порушують права на висловлювання.
Що з цим робити?
EFCSN пропонує конкретні заходи.
На рівні ЄС:
- Жорсткіше виконання Закону про цифрові послуги (DSA). Відмова платформ від зобов’язань — можливе порушення закону. Потрібні розслідування та штрафи.
- Гібридна верифікація. Поєднати нотатки спільноти з роботою професійних фактчекерів: «швидкий коридор» для підтверджених фактів, взаємна перевірка нотаток, реальний доступ фактчекерів до бази нотаток у режимі реального часу.
- Стале фінансування. Наступний багаторічний бюджет ЄС має щонайменше вдвічі збільшити підтримку фактчекінгу та медіаграмотності.
Нова централізована база фактчеків. У 2026 році EFCSN планує запустити єдину базу даних верифікованого контенту. Це дозволить перейти від реактивного підходу — гасіння окремих пожеж — до проактивного аналізу трендів дезінформації. База збиратиме структуровані дані про джерела фейків, їхні зв’язки та реальний масштаб шкоди, і слугуватиме інструментом для навчання ШІ, допомоги платформам і підтримки регуляторів.
Що можу зробити я?
Поки платформи відступають, кожен із нас залишається на передовій. Кілька простих кроків:
- Перевіряйте перед тим, як ділитися. Навіть якщо публікація здається очевидною — 30 секунд пошуку можуть виявити фейк.
- Стежте за надійними фактчекерами у вашому регіоні.
- Зверніть увагу на джерело. Є автор? Є посилання? Чи публікувало це медіа фейки раніше?
- Повідомляйте про підозрілий контент на платформах — це формує статистику, яка впливає на регуляторні рішення.
- Розвивайте медіаграмотність. Розуміння того, як працюють алгоритми — це вже захист.
Технологічні компанії можуть відступати. Але суспільство не має права здавати інформаційний фронт. Критичне мислення, цифрова гігієна та опора на незалежні, верифіковані медіа сьогодні є головними інструментами самозахисту в мережі.

