Компанія Meta оприлюднила перший квартальний звіт про цілісність платформи після того, як її засновник Марк Цукерберг кардинально змінив підходи до боротьби з мовою ненависті та модерації контенту на початку цього року. Результати виявилися неоднозначними: хоча загальна кількість видаленого контенту зменшилася, на Facebook помітно зріс рівень насильницького контенту та кібербулінгу.
Ключові зміни в цифрах
Дані показують суперечливі результати нової політики Meta. З одного боку, компанія стверджує, що вдвічі скоротила кількість помилок у модерації контенту. З іншого — спостерігається тривожне зростання проблемного контенту в окремих категоріях.
Найбільш помітні зміни торкнулися насильницького контенту, частка якого зросла з 0,06-0,07% наприкінці 2024 року до 0,09% в першому кварталі 2025-го. Meta пояснює це збільшенням обміну порушуючим контентом та власними спробами “зменшити помилки в модерації”.
Також зафіксовано зростання випадків булінгу та переслідувань на Facebook — з 0,06-0,07% до 0,07-0,08%. Компанія пов’язує це зі стрибком порушень у березні, не уточнюючи деталей.
Радикальне скорочення видалень
Нова політика Meta призвела до драматичного зменшення кількості видаленого контенту. Особливо це помітно в категорії мови ненависті — лише 3,4 мільйона публікацій було видалено за цією політикою, що є найнижчим показником з 2018 року.
Боротьба зі спамом також ослабла: кількість видалених спам-публікацій впала з 730 мільйонів наприкінці 2024 року до 366 мільйонів на початку 2025-го. Аналогічно зменшилася кількість заблокованих фейкових акаунтів — з 1,4 мільярда до 1 мільярда.
Особливий підхід до підлітків
Meta визнає необхідність збереження активної модерації для неповнолітніх користувачів. “Ми залишаємося відданими забезпеченню найбезпечнішого досвіду для підлітків на наших платформах”, — заявляє компанія. Для цієї вікової групи Meta продовжуватиме проактивно приховувати шкідливий контент, включно з булінгом.
Штучний інтелект замість людської модерації
Компанія активно впроваджує великі мовні моделі для модерації контенту. За словами Meta, тестування показує, що в окремих сферах ШІ вже перевершує людські можливості модерації. Алгоритми також використовуються для очищення черг на розгляд контенту, коли система впевнена, що матеріал не порушує правила.
Нова система фактчекінгу
Замість партнерських програм з фактчекерами Meta запровадила власну систему “Нотаток спільноти”, схожу на механізм Twitter/X. Поки що компанія не оприлюднила дані про ефективність цього підходу, але обіцяє надати статистику в найближчі місяці.
Ці зміни відображають фундаментальний поворот у політиці однієї з найвпливовіших соціальних мереж світу, наслідки якого ще тільки починають проявлятися.