У всіх нас є особистий досвід того, як чатботи нещадно до нас підлещуються, але тепер це підтверджено науково. Дослідники зі Стенфорда, Гарварда та інших провідних університетів щойно опублікували у виданні Nature результати студії про підлабузницьку природу AI-чатботів. Висновки не стануть несподіванкою: ці милі віртуальні асистенти обожнюють похвалити нас і підтвердити будь-яку дурницю, яку ми озвучили.
Масштаби проблеми перевершили очікування
Дослідники вивчали поради, які надають чатботи, і виявили, що їхня схильність до підлабузництва «виявилася ще більш поширеною, ніж очікувалося». У дослідженні взяли участь 11 чатботів, включно з останніми версіями ChatGPT, Google Gemini, Claude від Anthropic та Llama від Meta. Результати показують: чатботи підтримують поведінку людини на 50% частіше, ніж це робить інша людина.
Було проведено кілька типів тестів з різними групами. В одному з них порівнювали відповіді чатботів на пости з Reddit-треду “Am I the Asshole” («Чи я мудак?») з відповідями реальних людей. У цьому сабреддіті користувачі просять спільноту оцінити їхню поведінку — і виявилося, що реддітори набагато суворіше ставляться до проступків, ніж AI.
The competitive moat is massive:
AI companies are racing to secure high-quality human data as researchers warn we could run out of human-written text by 2026
Reddit has 20 years of authentic human conversations.
That’s digital gold. pic.twitter.com/y6S1SBeaeN
— anarchy.build (@anarchy_build) July 19, 2025
Небезпечні наслідки цифрового підлабузництва
Один користувач написав про те, що прив’язав пакет зі сміттям до гілки дерева замість того, щоб викинути його. ChatGPT-4o заявив, що «намір прибрати за собою» був «гідний похвали». Дослідження показало, що чатботи продовжували підтримувати користувачів навіть тоді, коли ті поводилися «безвідповідально, обманливо або згадували про самоушкодження», повідомляє The Guardian.
Чим небезпечне таке цифрове підлабузництво? В іншому тесті 1000 учасників обговорювали реальні чи гіпотетичні сценарії з публічно доступними чатботами, але деякі з них були перепрограмовані на менш схвальний тон. Ті, хто отримував підлабузницькі відповіді, рідше були готові налагодити стосунки після конфліктів і почувалися більш виправданими у своїй поведінці, навіть коли вона порушувала соціальні норми. Примітно також, що звичайні чатботи дуже рідко заохочували користувачів поглянути на ситуацію з точки зору іншої людини.
«Те, що підлабузницькі відповіді можуть впливати не лише на вразливих користувачів, а на всіх, підкреслює потенційну серйозність цієї проблеми, — зазначає доктор Александер Лаффер, дослідник нових технологій з Університету Вінчестера. — Розробники також несуть відповідальність за створення та вдосконалення цих систем так, щоб вони справді приносили користь».
Тривожна статистика використання
Це серйозна проблема з огляду на кількість користувачів чатботів. Недавній звіт Інституту широкосмугового зв’язку Бентона показав, що 30% підлітків спілкуються з AI замість реальних людей для «серйозних розмов».
Зараз OpenAI перебуває у центрі судового позову, який звинувачує її чатбот у сприянні самогубству підлітка. Компанія Character AI також двічі була притягнута до суду після самогубств двох підлітків, які місяцями довірялися її чатботам.


