- Гарячі теми:
- Все для фронту - все про зброю та техніку
Apple не "скануватиме" галерею користувачів
Apple перестала розробляти технологію, завдяки якій у пристроях користувачів можна шукати матеріали сексуального насильства над дітьми. Ініціатива була анонсована восени минулого року для iOS 15. Про це повідомляє The Verge.
Читайте також: Вибухнули Apple Watch Series 7: власник ледве вцілів
Експерти з шифрування та конфіденційності звинуватили компанію в тому, що вона розробляє систему стеження. У разі її потрапляння до представників недемократичних урядів, останні отримують інструмент для шпигунства. Відкривається доступ, наприклад, до фото з протестів, карикатур, незаконних зображень (згідно з місцевими правилами).
Apple поставила розробку на паузу, намагаючись поліпшити її і знайти компроміс із противниками. Тепер повномасштабні роботи зовсім зупинені.
Однак, частково механізм все ж впроваджено в iMessage. На основі налаштувань Family Sharing йде аналіз вхідних і вихідних зображень на предмет відверто сексуального матеріалу в облікових записах дітей. У разі виявлення надісланого дитині знімка порнографічного характеру, штучний інтелект автоматично розмиє його і запропонує допомогу в блокуванні співрозмовника.
Нагадаємо, раніше bigmir.net писав про те, що дві жінки подали до суду на Apple через те, що їхні колишні партнери використовували гаджет компанії AirTag для переслідування.
Читайте також: Блогер із РФ повторив експеримент українця з iPhone 14
Підпишись на наш Telegram-канал, якщо хочеш першим дізнаватися головні новини.