dburtsev (dburtsev) wrote,
dburtsev
dburtsev

Category:

Apple to scan U.S. iPhones for images of child sexual abuse

Apple unveiled plans to scan U.S. iPhones for images of child sexual abuse, drawing applause from child protection groups but raising concern among some security researchers that the system could be misused, including by governments looking to surveil their citizens.
The tool designed to detected known images of child sexual abuse, called “neuralMatch,” will scan images before they are uploaded to iCloud. If it finds a match, the image will be reviewed by a human. If child pornography is confirmed, the user’s account will be disabled and the National Center for Missing and Exploited Children notified.
Separately, Apple plans to scan users’ encrypted messages for sexually explicit content as a child safety measure, which also alarmed privacy advocates.

Компания Apple представила планы по сканированию американских iPhone на наличие изображений сексуального насилия над детьми, вызвав аплодисменты со стороны групп по защите детей, но вызвав обеспокоенность некоторых исследователей в области безопасности тем, что система может быть использована не по назначению, в том числе правительствами, желающими следить за своими гражданами.
Инструмент, предназначенный для обнаружения известных изображений сексуального насилия над детьми, под названием "neuralMatch", сканирует изображения до их загрузки в iCloud. Если он обнаружит совпадение, изображение будет рассмотрено человеком. Если подтвердится наличие детской порнографии, учетная запись пользователя будет отключена, а Национальный центр помощи пропавшим и эксплуатируемым детям будет поставлен в известность.
Кроме того, Apple планирует проверять зашифрованные сообщения пользователей на наличие сексуально откровенного содержания в качестве меры безопасности детей, что также встревожило защитников конфиденциальности.

Matthew Green, a top cryptography researcher at Johns Hopkins University, warned that the system could be used to frame innocent people by sending them seemingly innocuous images designed to trigger matches for child pornography. That could fool Apple’s algorithm and alert law enforcement. “Researchers have been able to do this pretty easily,” he said of the ability to trick such systems.
Other abuses could include government surveillance of dissidents or protesters. “What happens when the Chinese government says, ‘Here is a list of files that we want you to scan for,’” Green asked. “Does Apple say no? I hope they say no, but their technology won’t say no.”

Мэтью Грин, ведущий исследователь криптографии в Университете Джона Хопкинса, предупредил, что систему можно использовать для подставы невинных людей, отправляя им безобидные на первый взгляд изображения, призванные вызвать совпадения с детской порнографией. Это может обмануть алгоритм Apple и предупредить правоохранительные органы. "Исследователи смогли сделать это довольно легко", - сказал он о возможности обмануть такие системы.
Другие злоупотребления могут включать слежку правительства за диссидентами или протестующими. Что произойдет, если китайское правительство скажет: "Вот список файлов, которые мы хотим, чтобы вы просканировали", - спросил Грин. "Скажет ли Apple "нет"? Я надеюсь, что они скажут нет, но их технология не скажет нет".
https://apnews.com/article/technology-business-child-abuse-apple-inc-7fe2a09427d663cda8addfeeffc40196?utm_source=wnd&utm_medium=wnd&utm_campaign=syndicated
Tags: it, privacy, порнография
Subscribe

Recent Posts from This Journal

  • Post a new comment

    Error

    default userpic
    When you submit the form an invisible reCAPTCHA check will be performed.
    You must follow the Privacy Policy and Google Terms of use.
  • 0 comments