Apple не будет "сканировать" галерею пользователей
Apple перестала разрабатывать технологию, благодаря которой в устройствах пользователей можно искать материалы сексуального насилия над детьми. Инициатива была анонсирована осенью прошлого года для iOS 15. Об этом сообщает The Verge.
Читай также: Взорвались Apple Watch Series 7: владелец едва уцелел
Эксперты по шифрованию и конфиденциальности обвинили компанию в том, что она разрабатывает систему слежки. В случае ее попадания к представителям недемократических правительств, последние получают инструмент для шпионажа. Открывается доступ, к примеру, к фото с протестов, карикатурам, незаконным изображениям (согласно местных правил).
Apple поставила разработку на паузу, пытаясь улучшить ее и найти компромисс с противниками. Теперь полномасштабные работы совсем остановлены.
Однако, частично механизм все же внедрен в iMessage. На основе настроек Family Sharing идет анализ входящих и исходящих изображений на предмет откровенно сексуального материала в учетных записях детей. При обнаружении отправленного ребенку снимка порнографического характера искусственный интеллект автоматически размоет его и предложит помощь в блокировке собеседника.
Напомним, ранее bigmir.net писал о том, что две женщины подали в суд на Apple из-за того, что их бывшие партнеры использовали гаджет компании AirTag для преследования.
Читай также: Блогер из РФ повторил эксперимент украинца с iPhone 14
Подпишись на наш Telegram-канал, если хочешь первым узнавать главные новости.