ШІ-чатбот Grok від компанії xAI, що належить Ілону Маску, згенерував приблизно 3 мільйони сексуалізованих зображень за 11 днів. Серед них — близько 23 тисяч зображень дітей. Це означає, що система створювала в середньому 190 сексуалізованих зображень щохвилини, а зображення дітей — кожні 41 секунду.
Такі дані оприлюднив британський Центр протидії цифровій ненависті (CCDH) у четвер. Організація проаналізувала випадкову вибірку з 20 тисяч зображень, створених Grok у період з 29 грудня по 9 січня, а потім екстраполювала результати на всі 4,6 мільйона зображень, згенерованих за цей період.
Що вважалося сексуалізованим контентом
Дослідники визначали сексуалізовані зображення як ті, що містять фотореалістичні зображення людей у сексуальних позах, ракурсах або ситуаціях; людей у нижній білизні, купальниках або подібному відкритому одязі. Дослідження не враховувало текстові запити користувачів, тому оцінка не розрізняє сексуалізовані версії реальних фотографій без згоди та зображення, згенеровані виключно з текстових запитів.
CCDH використав ШІ-інструмент для визначення частки сексуалізованих зображень у вибірці. Хоча це може викликати певні застереження щодо точності, багато сторонніх аналітичних сервісів для X мають надійні дані завдяки використанню API платформи.
Недостатні заходи xAI
9 січня компанія xAI обмежила можливість редагування існуючих зображень у Grok лише для платних користувачів. Це не вирішило проблему, а лише перетворило її на преміум-функцію. П’ять днів потому, 14 січня, соціальна мережа X обмежила можливості Grok створювати цифрові “оголені” версії реальних людей.
Однак ці обмеження стосуються лише веб-версії в X. За повідомленнями, окремий застосунок Grok продовжує генерувати такі зображення.
Мовчання Apple та Google
Apple та Google розміщують застосунок Grok у своїх магазинах додатків, хоча це прямо суперечить їхній політиці. На відміну від подібних застосунків для “оголення” від інших розробників, які компанії видалили, Grok досі залишається доступним.
Це відбувається попри те, що 28 жіночих організацій та інших правозахисних неприбуткових груп опублікували відкритий лист із закликом до компаній діяти. Ні Apple Тіма Кука, ні Google Сундара Пічаї не відреагували на численні запити коментарів від медіа-видань та не визнали проблему публічно.
Приклади неприпустимого контенту
Дослідження виявило численні випадки створення зображень людей у прозорих або мікро-бікіні. CCDH описав одне зображення як “медичну працівницю в уніформі з білими рідинами між розведеними ногами”. Інші зображення показували жінок лише в зубній нитці, харчовій плівці або прозорій стрічці. Одне зображення зобразило Еббу Буш, віце-прем’єр-міністра Швеції, “в бікіні з білою рідиною на голові”.
Серед постраждалих публічних осіб — Селена Гомес, Тейлор Свіфт, Біллі Айліш, Аріана Гранде, Айс Спайс, Нікі Мінаж, Крістіна Гендрікс, Міллі Боббі Браун та Камала Гарріс.
Найтривожніший аспект: зображення дітей
Приклади зображень дітей включають випадок, коли хтось використав Grok для перетворення “ранкового селфі перед школою” дитини в зображення у бікіні. Інше зображення показувало “шість маленьких дівчаток у мікро-бікіні”. Станом на 15 січня обидва ці пости все ще були доступні в X.
Загалом 29 відсотків сексуалізованих зображень дітей, виявлених у вибірці, залишалися доступними в X станом на 15 січня. Дослідження виявило, що навіть після видалення постів зображення залишалися доступними за прямими URL-посиланнями.

