![](https://api.theins.ru/images/HfM74lf8haTRZHZ9F28WzJWnLMNAtaCHEYkcW-BExTU/rs:auto:877:579:0:0/dpr:2/q:100/bG9jYWw6L3B1Ymxp/Yy9zdG9yYWdlL3Bv/c3QvMjQ0NzY3L2Zp/bGUtNzc0NmVlMGI3/YzFjNjJjNzM3ZmRj/NThkZWJiNTkwNmUu/anBn.jpg)
Компания Apple отложила на неопределенный срок запуск системы сканирования фотографий на iPhone, хранящихся в iCloud, на наличие детской порнографии. Об этом сообщает издание AppleInsider.
Такое решение было принято после критики со стороны пользователей. «Основываясь на отзывах клиентов, правозащитников и исследователей, мы решили уделить еще несколько месяцев тому, чтобы собрать дополнительную информацию и внести улучшения перед запуском этой важной для безопасности детей функции», — говорится в заявлении.
В начале августа Apple объявила о запуске механизма, с помощью которого компании будет проверять переписку и содержимое облачного хранилища iCloud на наличие фотографии с детской порнографией и признаками жесткого обращения с детьми. Новую функцию планировали запустить на всех операционных системах Apple.
В компании заверили, что технология разработана с учетом конфиденциальности и защиты личных данных, а фото в iCloud не будут сканироваться. Функция будет автоматически сравнивать снимки с известными иллюстрациями сексуального насилия над детьми из базы Национального центра пропавших и эксплуатируемых детей США.
Идея Apple вызвала критику специалистов по кибербезопасности и правозащитников. Эксперты в области персональных данных высказали мнение, что новая система свидетельствует об ослаблении требований компании в сфере защиты данных. Кроме того, Apple обвинили в нарушении приватности личной жизни пользователей и высказали опасение, что в будущем эту функцию могут использовать в своих целях органы власти.