Найновіша модель ChatGPT почала цитувати Grokipedia — онлайн-енциклопедію Ілона Маска — у відповідях на широкий спектр запитів, зокрема про іранські конгломерати та заперечувачів Голокосту. Це викликає серйозні занепокоєння щодо поширення дезінформації через платформу.
Результати тестування
У тестах, проведених виданням The Guardian, модель GPT-5.2 процитувала Grokipedia дев’ять разів у відповідь на понад дюжину різних запитів. Серед них були питання про політичні структури Ірану — зокрема про зарплати парамілітарних сил «Басідж» та власників Фонду Мостазафан, — а також про біографію сера Річарда Еванса, британського історика, який виступав експертом-свідком проти заперечувача Голокосту Девіда Ірвінга під час судового процесу.
Примітно, що ChatGPT не цитував Grokipedia, коли його безпосередньо просили повторити дезінформацію про штурм Капітолію 6 січня, про медійну упередженість проти Дональда Трампа або про епідемію ВІЛ/СНІДу — теми, щодо яких Grokipedia, за численними повідомленнями, поширює неправдиву інформацію. Натомість дані з Grokipedia потрапляли у відповіді моделі при запитах на більш маловідомі теми.
Що таке Grokipedia
Grokipedia, запущена у жовтні 2025 року, — це ШІ-генерована онлайн-енциклопедія, яка позиціонується як конкурент Wikipedia. Платформу критикують за просування правих наративів щодо таких тем, як одностатеві шлюби та штурм Капітолію США. На відміну від Wikipedia, Grokipedia не дозволяє прямого редагування людьми — контент створює ШІ-модель, яка також обробляє запити на зміни.
Проблема стосується не лише OpenAI
GPT-5.2 — не єдина велика мовна модель, яка цитує Grokipedia. За наявними даними, Claude від Anthropic також посилається на енциклопедію Маска в темах від видобутку нафти до шотландського елю. Компанія Anthropic не відповіла на запит журналістів про коментар.
Загроза «вирощування» ШІ-моделей на дезінформації
Те, що інформація з Grokipedia — часом дуже непомітно — проникає у відповіді великих мовних моделей, викликає занепокоєння серед дослідників дезінформації. Навесні 2025 року експерти з безпеки попереджали, що зловмисники, зокрема російські пропагандистські мережі, масово генерують дезінформацію з метою «засіяти» ШІ-моделі брехнею — цей процес називають «LLM grooming» (вирощування мовних моделей).
У червні в Конгресі США висловлювали занепокоєння, що Google Gemini повторював позицію китайського уряду щодо порушень прав людини в Сіньцзяні та політики Китаю щодо COVID-19.
Думка експертів
Ніна Янкович, дослідниця дезінформації, яка вивчала проблему «вирощування» ШІ-моделей, зазначила, що цитування Grokipedia моделлю ChatGPT викликає аналогічні занепокоєння. За її словами, статті Grokipedia, які вона з колегами аналізувала, «спираються на джерела, які в кращому випадку є ненадійними, а в гіршому — погано підкріпленими або навмисною дезінформацією».
Крім того, коли великі мовні моделі цитують такі джерела, як Grokipedia або мережа Pravda, це може підвищити їхню достовірність в очах читачів. «Люди можуть подумати: “О, ChatGPT це цитує, ці моделі це цитують — значить, це пристойне джерело, напевно вони його перевірили” — і можуть піти туди шукати новини про Україну», — попередила Янкович.
Недостовірну інформацію, яка потрапила до ШІ-чатбота, буває складно видалити. Янкович розповіла, що нещодавно виявила вигадану цитату, приписану їй, у матеріалі великого новинного видання. Після її звернення видання видалило цитату, однак ШІ-моделі ще певний час продовжували її повторювати. «Більшість людей не докладатимуть зусиль, щоб з’ясувати, де насправді правда», — зазначила дослідниця.
Реакція компаній
Речник OpenAI заявив, що веб-пошук моделі «має на меті використовувати широкий спектр загальнодоступних джерел та точок зору». «Ми застосовуємо фільтри безпеки для зменшення ризику відображення посилань, пов’язаних із серйозними загрозами, а ChatGPT чітко показує, які джерела використано у відповіді, через цитування», — додав він, зазначивши про постійні програми фільтрації недостовірної інформації та кампаній впливу.
Речник xAI, власника Grokipedia, на запит про коментар відповів: «Застарілі ЗМІ брешуть».

