Провідні компанії в галузі штучного інтелекту, включаючи OpenAI, Microsoft, Google, Meta та інші, спільно пообіцяли подбати про безпеку дітей в Інтернеті – запобігти використанню своїх інструментів штучного інтелекту для експлуатації дітей і створення матеріалів, що містять сексуальне насильство над дітьми (CSAM).
Ініціативу очолили група з безпеки дітей Thorn та некомерційна організація All Tech Is Human, що займається питаннями відповідальних технологій.
За словами Thorn, зобов’язання компаній, що займаються розробкою ШІ, «створюють революційний прецедент для індустрії і представляють собою значний стрибок у зусиллях щодо захисту дітей від сексуального насильства в міру того, як розгортається функція генеративного ШІ».
Мета ініціативи – запобігти створенню відверто сексуальних матеріалів за участю дітей і видалити їх з платформ соціальних мереж і пошукових систем. За словами Thorn, лише у 2023 році в США було зареєстровано понад 104 мільйони файлів з підозрою на матеріали, що містять сексуальне насильство над дітьми. За відсутності колективних дій генеративний ШІ може погіршити цю проблему і перевантажити правоохоронні органи, які вже зараз намагаються ідентифікувати справжніх жертв.
У вівторок Thorn і All Tech Is Human випустили новий документ під назвою «Safety by Design for Generative AI: Preventing Child Sexual Abuse» («Безпека за задумом для генеративного ШІ: запобігання сексуальному насильству над дітьми»), в якому викладені стратегії і рекомендації для компаній, що створюють інструменти ШІ, пошукових систем, платформ соціальних мереж, хостингових компаній і розробників, щоб запобігти використанню генеративного ШІ для заподіяння шкоди дітям.
Одна з рекомендацій, наприклад, закликає компанії ретельно обирати набори даних для навчання АІ-моделей і уникати тих, що містять не лише випадки сексуального насильства над дітьми, а й сексуальний контент для дорослих, оскільки генеративний ШІ схильний поєднувати ці дві концепції. Thorn також просить платформи соціальних мереж і пошукові системи видаляти посилання на веб-сайти і додатки, які дозволяють людям «оголювати» зображення дітей, створюючи таким чином нові матеріали про сексуальне насильство над дітьми, створені штучним інтелектом в Інтернеті. На думку авторів статті, потік створених штучним інтелектом CSAM ускладнить ідентифікацію справжніх жертв сексуального насильства над дітьми, збільшуючи «проблему копиці сіна» – тобто кількість контенту, який правоохоронні органи повинні просіювати.
«Цей проект мав на меті чітко дати зрозуміти, що не потрібно розводити руками, – сказала віце-президент Thorn з науки про дані Ребекка Портнофф в інтерв’ю Wall Street Journal. «Ми хочемо мати можливість змінити курс цієї технології так, щоб існуюча шкода від неї була знищена».
За словами Портнофф, деякі компанії вже погодилися відокремлювати зображення, відео та аудіо, в яких беруть участь діти, від наборів даних, що містять контент для дорослих, щоб запобігти поєднанню цих двох матеріалів у своїх моделях. Інші також додають водяні знаки, щоб ідентифікувати контент, створений штучним інтелектом, але цей метод не є надійним – водяні знаки і метадані можна легко видалити.
Facebook та Instagram блокуватимуть приватні повідомлення підліткам від незнайомців