Apple отложила запуск системы сканирования фото на айфонах в поисках детской порнографии
Apple отложила запуск системы сканирования фото на айфонах в поисках детской порнографии
Данное издание существует на пожертвования читателей — только благодаря вам мы можем продолжать свою работу. Из-за вторжения в Украину и(или) санкций их стало гораздо меньше, поэтому мы пишем капслоком: если можете, поддержите «МЕДИАЗОНУ». Нет войне.
Оформите регулярное пожертвование Медиазоне!Поддержать
3 сентября 2021, 19:11

Корпорация Apple отложила запуск системы сканирования фотографий на айфонах, подключенных к облачному хранилищу iCloud, для выявления детской порнографии. Об этом сообщает AppleInsider со ссылкой на заявление корпорации.

«Основываясь на отзывах клиентов, правозащитников, исследователей и других лиц, мы в ближайшие месяцы решили потратить больше времени на то, чтобы собрать дополнительную информацию и внести улучшения, прежде чем запустить эти критически важные функции для обеспечения безопасности детей», — говорится в сообщении.

В начале августа Apple представила алгоритм, который перед загрузкой фото в iCloud будет автоматически сравнивать фотографии владельца айфона с реестром изображений, собранных Национальным центром пропавших и эксплуатируемых детей (NCMEC) США.

«Мы хотим помочь защитить детей от маньяков, которые с помощью средств связи ищут жертв для сексуальной эксплуатации, и ограничить распространение материалов с сексуальным насилием над детьми», — говорили в корпорации.

Проект Apple вызвал критику специалистов по кибербезопасности и правозащитников, которые указывали на нарушение приватности владельца устройства и потенциальную угрозу расширения списка причин для поиска файлов под давлением властей разных стран.

Ещё 25 статей