Apple будет проверять изображения на устройствах пользователей, чтобы выявить детскую порнографию
Американская корпорация Apple начнет тестировать на своих устройствах в США новую технологию, позволяющую выявить изображения с сексуальным насилием над детьми, сообщается на сайте компании
Технологию внедрят в операционные системы iOS и iPadOS. Она будет проверять изображения, хранящиеся в iCloud. В Apple утверждают, что технология не будет сканировать все изображения в хранилище, а будет сопоставлять их цифровые отпечатки с базой данных известных материалов сексуального насилия над детьми. Эту базу корпорации предоставил Национальный центр по делам пропавших без вести и эксплуатируемых детей США (NCMEC), а также другие организации, которые занимаются безопасностью несовершеннолетних.
База будет храниться на устройствах пользователей в зашифрованном виде, а технология — сопоставлять с ней изображения перед их загрузкой в iCloud. Apple также будет использовать еще одну технологию, которая, как утверждают в компании, не позволит ей просматривать изображения, если пользователь не пересек установленный порог безопасности по материалам с сексуальной порнографией. В ином случае Apple будет проверять изображения вручную, а затем отключать учетную запись в iCloud и отправлять отчет в NCMEC. Пользователь сможет оспорить блокировку аккаунта.
Что еще известно:
Apple внедрит и другие функции для защиты детей. Так, с выходом новых версий операционных систем iOS и iPadOS 15, watchOS 8 и macOS Monterey технологии начнут сканировать фотографии на устройствах в приложении «Сообщения» и размывать полученные откровенные снимки, а также предупреждать детей о том, почему им нельзя просматривать такой контент. Если ребенок все-таки откроет изображение, программа сообщит об этом его родителям. Аналогично будет устроена отправка сообщений.
Следить за событиями удобно в нашем новостном телеграм-канале. Присоединяйтесь