Apple расширяет возможности обнаружения наготы на устройстве для борьбы с CSAM
В декабре Apple объявила, что убивает спорный инструмент сканирования фотографий iCloud, который компания разработала для борьбы с материалами о сексуальном насилии над детьми (CSAM), что, по ее словам, было способом сохранения конфиденциальности. Позже Apple заявила, что вместо этого ее усилия по борьбе с CSAM были сосредоточены на функциях «Безопасность связи» для детей, о которых первоначально было объявлено в августе 2021 года. А сегодня на Всемирной конференции разработчиков компании в Купертино Apple представила расширения механизма, включая дополнительную функцию. . подходит для взрослых.
Безопасность связи сканирует сообщения локально на устройствах юных пользователей, чтобы пометить контент, который дети получают или отправляют сообщения на iOS, содержащие изображения обнаженного тела. Сегодня Apple объявила, что эта функция также распространяется на видеосообщения FaceTime, контактные плакаты в приложении «Телефон», инструмент выбора фотографий, где пользователи выбирают фотографии или видео для отправки, и AirDrop. Обработка этой функции на устройстве означает, что Apple никогда не увидит помеченный контент, но начиная с этой осени безопасность связи будет включена по умолчанию для всех детских учетных записей — детей до 13 лет — в семейном плане. Родители могут отключить эту функцию, если захотят.
«Безопасность общения — это функция, с помощью которой мы действительно хотим дать ребенку минутку паузы и, надеюсь, его побеспокоит то, что на самом деле является ухаживающим разговором, или, по крайней мере, может им быть», — говорит глава отдела конфиденциальности пользователей Apple Эрик Нойеншвандер. «Таким образом, это должно быть сильное трение. Это означает, что есть ответ, который, как мы думаем, вероятно, является правильным в ситуации с этим ребенком, что они не должны продвигаться вперед, и мы действительно хотим убедиться, что они образованы».
В декабре Apple заявила, что планирует сделать доступным программный интерфейс (API), чтобы сторонние разработчики могли легко интегрировать средства защиты связи в свои приложения и использовать их для обнаружения материалов о сексуальном насилии над детьми, или CSAM. API, известный как платформа анализа конфиденциального контента, теперь доступен для разработчиков. Такие платформы, как Discord, уже заявили, что планируют включить его в свои приложения для iOS.