Виявлення діпфейків у реальному часі: Як Intel Labs використовує штучний інтелект для боротьби з дезінформацією

6 хв. читання

Ілке Демір з Intel пояснює, як працює технологія deepfake і чому дослідникам штучного інтелекту важливо співпрацювати з антропологами, соціологами та академічними дослідниками.

ilke demir

Кілька років тому “діпфейки” здавалися новою технологією, творці якої покладалися на серйозні обчислювальні потужності. Сьогодні ж вони поширені повсюдно і можуть бути використані для дезінформації, хакерських атак та інших недобросовісних цілей.

Читайте також: Діпфейки: чому це так небезпечно?

Intel Labs розробила технологію виявлення підробок у реальному часі для протидії цій зростаючій проблемі. Ільке Демір, старший науковий співробітник Intel, пояснює технологію, що лежить в основі підробок, методи виявлення Intel, а також етичні міркування, пов’язані з розробкою та впровадженням таких інструментів.

Що таке “діпфейк”?

Діпфейк – це відео, аудіо або зображення, де актор або дія не реальні, а створені штучним інтелектом (ШІ). Для створення високореалістичного і правдоподібного контенту в “діпфейках” використовуються складні архітектури глибокого навчання, такі як генеративні змагальні мережі, варіаційні автокодери та інші моделі ШІ. Ці моделі можуть генерувати синтетичних персонажів, відео з синхронізацією по губах і навіть перетворювати текст на зображення, що ускладнює розрізнення між реальним і фейковим контентом.

Термін “діпфейк” іноді застосовують до автентичного контенту, який було змінено, як, наприклад, відео з колишньою спікеркою Палати представників Ненсі Пелосі у 2019 році, яке було підроблено, щоб вона виглядала п’яною.

Команда Деміра досліджує комп’ютерні “діпфейки”, які є синтетичними формами контенту, що генеруються машинами. “Причина, чому це називається deepfake, полягає в тому, що існує складна архітектура глибокого навчання в генеративному штучному інтелекті, яка створює весь цей контент”, – каже він.

Читайте також: Що станеться, якщо суперрозумний штучний інтелект вийде з-під контролю?

Кіберзлочинці та інші зловмисники часто зловживають технологією deepfake. Деякі випадки використання включають політичну дезінформацію, контент для дорослих за участю знаменитостей або осіб, які не дають на це згоди, маніпулювання ринком і видавання себе за іншу особу з метою отримання грошової вигоди. Ці негативні наслідки підкреслюють потребу в ефективних методах виявлення підробок.

Що пропонує Intel Labs?

Intel Labs розробила одну з перших у світі платформ для виявлення підробок у режимі реального часу. Замість того, щоб шукати артефакти підробки, технологія зосереджується на виявленні справжніх ознак, таких як частота серцевих скорочень. Використовуючи метод фотоплетизмографії – система виявлення аналізує зміни кольору у венах, зумовлені вмістом кисню, який можна побачити за допомогою комп’ютера – технологія може визначити, чи є особистість справжньою людиною, чи синтетичною.

“Ми намагаємося подивитися на те, що є справжнім і автентичним. Серцебиття – це один із  таких сигналів, – каже Демір. “Коли ваше серце качає кров, вона потрапляє у вени, і вени змінюють колір через вміст кисню. Це не видно для нашого ока; я не можу просто подивитися на це відео і побачити частоту вашого серцебиття. Але цю зміну кольору можна побачити за допомогою комп’ютера”.

Технологія Intel для виявлення підробок впроваджується в різних секторах і на різних платформах, зокрема в соціальних мережах, інформаційних агентствах, телерадіокомпаніях, інструментах для створення контенту, стартапах і некомерційних організаціях. Інтегруючи цю технологію у свої робочі процеси, ці організації можуть краще виявляти та зменшувати поширення “діпфейків” і дезінформації.

Незважаючи на потенціал для зловживань, технологія “діпфейків” має легітимні застосування. Одним із перших застосувань було створення аватарів для кращого представлення людей у цифровому середовищі. Демір посилається на конкретний приклад використання під назвою “MyFace, MyChoice”, який використовує deepfakes для підвищення рівня конфіденційності на онлайн-платформах.

Читайте також: Як інструмент штучного інтелекту може зламати ваші паролі за лічені секунди

Простіше кажучи, цей підхід дозволяє людям контролювати свою зовнішність на онлайн-фотографіях, замінюючи своє обличчя на “кількісно відмінну підробку”, якщо вони не хочуть, щоб їх впізнали. Такий контроль забезпечує більшу приватність і контроль над власною ідентичністю, допомагаючи протидіяти алгоритмам автоматичного розпізнавання облич.

Забезпечення етичної розробки та впровадження технологій штучного інтелекту має вирішальне значення. Команда Intel Trusted Media співпрацює з антропологами, соціологами та дослідниками-користувачами, щоб оцінити та вдосконалити технологію. Компанія також має Раду з питань відповідального ШІ, яка перевіряє системи ШІ на відповідність етичним принципам, включаючи потенційні упередження, обмеження та можливі випадки шкідливого використання. Такий міждисциплінарний підхід допомагає гарантувати, що технології штучного інтелекту, такі як глибоке виявлення фейків, слугують на користь людям, а не завдають шкоди.

“У нас є юристи, соціологи, психологи, і всі вони об’єднуються, щоб виявити обмеження та визначити, чи існує упередженість – алгоритмічна, систематична, упередженість даних, будь-який тип упередженості”, – каже Дімер. Команда сканує код, щоб знайти “будь-які можливі випадки використання технології, які можуть зашкодити людям”.

Оскільки “діпфейки” стають все більш поширеними і витонченими, розробка і впровадження технологій виявлення для боротьби з дезінформацією та іншими шкідливими наслідками набуває все більшого значення. Технологія виявлення підробок у режимі реального часу від Intel Labs пропонує масштабоване та ефективне рішення цієї зростаючої проблеми.

Враховуючи етичні міркування та співпрацюючи з експертами з різних дисциплін, Intel працює над створенням майбутнього, в якому технології штучного інтелекту будуть використовуватися відповідально та на благо суспільства.

Джерело: ZDNET

Поділитися
Exit mobile version