Apple отложила запуск системы сканирования фото на айфонах в поисках детской порнографии
Корпорация Apple отложила запуск системы сканирования фотографий на айфонах, подключенных к облачному хранилищу iCloud, для выявления детской порнографии. Об этом сообщает AppleInsider со ссылкой на заявление корпорации.
«Основываясь на отзывах клиентов, правозащитников, исследователей и других лиц, мы в ближайшие месяцы решили потратить больше времени на то, чтобы собрать дополнительную информацию и внести улучшения, прежде чем запустить эти критически важные функции для обеспечения безопасности детей», — говорится в сообщении.
В начале августа Apple представила алгоритм, который перед загрузкой фото в iCloud будет автоматически сравнивать фотографии владельца айфона с реестром изображений, собранных Национальным центром пропавших и эксплуатируемых детей (NCMEC) США.
«Мы хотим помочь защитить детей от маньяков, которые с помощью средств связи ищут жертв для сексуальной эксплуатации, и ограничить распространение материалов с сексуальным насилием над детьми», — говорили в корпорации.
Проект Apple вызвал критику специалистов по кибербезопасности и правозащитников, которые указывали на нарушение приватности владельца устройства и потенциальную угрозу расширения списка причин для поиска файлов под давлением властей разных стран.