Перейти к основному контенту

Apple будет сканировать фотографии пользователей в поисках детской порнографии

IT-гигант Apple будет в автоматическом режиме сканировать фотографии пользователей в поисках снимков, показывающих сексуальное насилие над детьми. Как сообщается на сайте компании, эта «амбициозная» и «инновационная» программа по защите несовершеннолетних будет реализована с полным учетом конфиденциальности пользователей. Однако IT-эксперты уже называют инициативу опасным прецедентом, а технологии в будущем пророчат использование в политическим целях.

Инициативу, направленную на защиту детей, с восторгом восприняли не все
Инициативу, направленную на защиту детей, с восторгом восприняли не все Mladen ANTONOV AFP/Archivos
Реклама

Как утверждает Apple, теперь устройства на iOS и iPadOS — то есть мобильные телефоны и планшеты — будут сравнивать фотографии пользователей с изображениями из базы данных американского центра, занимающегося поиском пропавших без вести и эксплуатируемых детей (NCMEC). Анализ планируется производить на устройствах, а сравнивать даже не файлы, а их хэш-суммы, то есть цифровые отпечатки.

В случае, если количество фотографий, отмеченных алгоритмом, превысит критическое значение (какое именно — не уточняется), в дело включатся сотрудники Apple. Они вручную проверят результаты машинного анализа и смогут отключить аккаунт пользователя, а также отправить информацию о нем в центр NCMEC. Блокировку можно будет оспорить. Каким будет взаимодействие с национальными органами по защите детей в других странах, неизвестно.

В анонсе Apple неоднократно делает акцент на сохранении приватности пользователей. Одна из крупнейших IT-компаний в мире, устройствами которой пользуются более миллиарда человек, отмечает, что не сможет получить доступ к другим снимкам клиентов даже при «красном» флаге алгоритма. Шанс ошибки системы, о тестировании которой на большом числе пользователей также не сообщается, равен одному из трех миллиардов. Саму прорывную технологию Apple представила не в отдельном пресс-релизе, а лишь упомянула среди других мер по защите детей — от маскировки сомнительных фотографий до помощи несовершеннолетним в «небезопасных» ситуациях в сети с помощью Siri.

Как пишет Meduza со ссылкой на американские СМИ, на устройства в США планируется установить программное обеспечение neuralMatch, которое и будет сканировать фотографии и искать материалы с насилием над детьми. Систему уже обучили на 200 тысячах изображений.

Apple, как и другие компании, предоставляющие услуги облачного хранения информации, проверяли базы фотографий на наличие незаконных изображений и раньше. Однако до этого речь шла только о снимках, хранящихся на удаленных серверах. Часто для этого используется система PhotoDNA, направленная на поиск свидетельств насилия над детьми. Как утверждает CNN, система действительно помогла выявить и поймать многих преступников.

Опасения и протест представителей IT-области вызывает то, что теперь анализ затронет и те данные, которые хранятся только на устройстве — а алгоритм можно будет натренировать на поиск любой графической информации.

«Apple защищает лишь собственные интересы»

Информация о новой системе Apple вызвала недовольство в IT-сообществе. Именно эта компания одной из первых начала массово вводить сквозное, или оконечное, шифрование. При таком типе защиты данные кодируются на устройстве, отправляющем информацию, а декодируются — на принимающем. Доступ к сообщениям не имеет даже сам разработчик алгоритма.

В 2016 году Apple заняла принципиальную позицию в вопросах защиты приватности пользователей в споре с ФБР. В Купертино отказались оказать спецслужбам помощь во взломе телефона стрелка в Калифорнии, убившего 14 человек. Суд встал на сторону IT-компании.

«Мы всегда считали, что создание „запасного входа“ (backdoor) для людей с „хорошими намерениями“ невозможно. „Дыры“ в алгоритме могут быть использованы против наших клиентов и американской национальной безопасности», — сообщали в Apple после резонансного решения.

Специалист по IT-безопасности Алекс Маффет (Alec Muffett) уверен, что Apple защищает собственные интересы, используя права детей, и идет на компромисс с властями, которые ранее не получали от компании помощи в расследованиях.

«Сейчас система нацелена на то, чтобы выявлять насилие над детьми. Но ее можно использовать для поиска любой информации или текста — от казней, осуществляемых террористами, до антиправительственных знаков на протестах», — отметил он в комментарии Financial Times. Эксперт уверен, что решение Apple приведет к внедрению похожих технологий в других корпорациях.

В случае, если технология будет применяться другими странами, ситуация с правами человека может ухудшится, предупреждает Маффетт. «Что захочет заблокировать Китай?», — задается вопросом он.

РассылкаПолучайте новости в реальном времени с помощью уведомлений RFI

Скачайте приложение RFI и следите за международными новостями

Поделиться :
Страница не найдена

Запрошенный вами контент более не доступен или не существует.