Apple начнет проверять фото в iCloud и iMessage на предмет жестокого обращения с детьми
Apple объявила о трёх улучшениях, которые она вводит для защиты детей на iPhone, iPad и Mac. И они вызывают опасения у многих пользователей, ведь по сути компания призналась, что будет изучать фотографии, которые вы делаете.
Во-первых, это сканирование iCloud на материалы сексуального насилия над детьми (CSAM). Сканирование происходит на стороне клиента, то есть все сопоставления выполняют на устройстве. Для этого на девайсе хранится та самая CSAM база данных, преобразованная в нечитаемый набор хешей. CSAM-анализ производится только при сохранении изображения в iCloud.
Во-вторых, это безопасность в iMessage. Если ребёнок, чей Apple ID находится в семье iCloud, получит или попытается отправить фотографии сексуального характера, он увидит предупреждение о том, что iMessage вышлет родителю уведомлению, «чтобы убедиться, что всё в порядке».
В-третьих, Apple обновляет Siri и Поиск. Они будут вмешиваться, когда пользователи выполняют поиск запросов, связанных с CSAM. Siri и Поиск объяснят пользователям, что интерес к этой теме вреден и проблематичен, и предоставят ресурсы от партнеров для получения помощи в этом вопросе.
Обновления для Siri и Search появятся позже в этом году в обновлении iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.

Проголосуйте, чтобы увидеть результаты