Жертви сексуального насильства над дітьми подали до суду на компанію Apple через невиконання планів щодо сканування iCloud на наявність матеріалів сексуального насильства над дітьми (CSAM), повідомляє The New York Times.
У 2021 році Apple оголосила, що працює над інструментом для виявлення CSAM, який позначатиме зображення, що демонструють таке насильство, і повідомлятиме про це Національний центр допомоги зниклим та експлуатованим дітям. Але компанія одразу ж зіткнулася з негативною реакцією щодо наслідків цієї технології для приватного життя і врешті-решт відмовилася від цього плану.
Позов, поданий у суботу в Північній Каліфорнії, вимагає відшкодування збитків на суму понад 1,2 мільярда доларів для потенційної групи з 2 680 жертв, повідомляє NYT. У позові стверджується, що після того, як Apple продемонструвала заплановані інструменти безпеки дітей, компанія «не змогла реалізувати ці розробки або вжити жодних заходів для виявлення та обмеження» CSAM на своїх пристроях, що призвело до заподіяння шкоди жертвам, оскільки зображення продовжували розповсюджуватися.
У заяві, наданій Engadget, прес-секретар Apple Фред Сайнц сказав:
«Матеріали із зображенням сексуального насильства над дітьми огидні, і ми прагнемо боротися з тим, як злочинці наражають дітей на небезпеку. Ми терміново та активно впроваджуємо інновації для боротьби з цими злочинами, не ставлячи під загрозу безпеку та конфіденційність усіх наших користувачів. Наприклад, такі функції, як «Безпека спілкування», попереджають дітей, коли вони отримують або намагаються надіслати контент, що містить оголену натуру, щоб допомогти розірвати ланцюг примусу, який призводить до сексуального насильства над дітьми. Ми продовжуємо зосереджуватися на створенні засобів захисту, які допоможуть запобігти поширенню CSAM ще до того, як воно почнеться».
Позов було подано лише через кілька місяців після того, як Національне товариство із запобігання жорстокому поводженню з дітьми (NSPCC) звинуватило Apple у приховуванні інформації про випадки CSAM у Великобританії.