Apple planea escanear iPhones estadounidenses en busca de imágenes de abuso sexual infantil | Manzana

[ad_1]

Apple ha revelado planes para escanear sus iPhones en los Estados Unidos en busca de imágenes de abuso sexual infantil, elogiando a los grupos de protección infantil pero generando preocupación entre algunos investigadores sobre la seguridad de que el sistema podría ser mal utilizado, incluso por gobiernos que buscan monitorear a sus ciudadanos.

La herramienta diseñada para detectar imágenes conocidas de abuso sexual infantil, llamada neuralMatch, analizará las imágenes antes de que se carguen en iCloud. Si encuentra una coincidencia, la imagen será examinada por un humano. Si se confirma el abuso infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados de EE. UU.

Por otra parte, Apple planea escanear mensajes cifrados de usuarios que buscan contenido sexualmente explícito como medida de seguridad para los niños, lo que también ha alarmado a los defensores de la privacidad. El sistema de detección solo informará imágenes que ya estén en la base de datos conocida del centro de imágenes de abuso infantil. Los padres que toman fotografías de un niño en el baño probablemente no tengan que preocuparse. Pero los investigadores dicen que la herramienta de coincidencia, que no «ve» tales imágenes, solo «huellas digitales» matemáticas que las representan, podría usarse para diferentes propósitos.

Matthew Green, un investigador de criptografía de la Universidad Johns Hopkins, advirtió que el sistema podría usarse para engañar a personas inocentes para que les envíen imágenes aparentemente inofensivas diseñadas para desencadenar coincidencias con imágenes de abuso infantil. Esto podría engañar al algoritmo de Apple y alertar a la policía. «Los investigadores pudieron hacer esto con bastante facilidad», dijo sobre la capacidad de engañar a tales sistemas.

Otros abusos podrían incluir la vigilancia gubernamental de disidentes o manifestantes. «¿Qué sucede cuando el gobierno chino dice: ‘Aquí hay una lista de archivos que queremos que escanee'», preguntó Green. «¿Apple dice que no?» Espero que digan que no, pero su tecnología no dirá que no.

Empresas de tecnología como Microsoft, Google, Facebook y otras han compartido huellas digitales de imágenes conocidas de abuso sexual infantil durante años. Apple los usó para escanear archivos de usuario almacenados en su servicio iCloud, que no está encriptado de manera tan segura como sus datos en el dispositivo, en busca de pornografía infantil.

Apple ha estado bajo presión del gobierno durante años para permitir una mayor vigilancia de los datos cifrados. La implementación de las nuevas medidas de seguridad ha obligado a Apple a lograr un delicado equilibrio entre tomar medidas enérgicas contra la explotación infantil y mantener su compromiso principal de proteger la privacidad de sus usuarios.

Pero la Electronic Frontier Foundation, pionera de las libertades civiles en línea, calificó el compromiso de privacidad de Apple como un «giro impactante para los usuarios que confiaban en el liderazgo de la compañía en confidencialidad y seguridad».

Mientras tanto, el científico informático que inventó PhotoDNA, la tecnología utilizada por las agencias de aplicación de la ley para identificar imágenes de abuso infantil en línea hace más de una década, ha reconocido el potencial de abuso infantil. El sistema de Apple, pero dijo que fue superado con creces por el imperativo de abordar abuso sexual infantil.

«¿Es posible? Claro. ¿Pero es algo que me preocupa? No», dijo Hany Farid, investigador de la Universidad de California en Berkeley, quien argumentó que muchos otros programas diseñados para proteger dispositivos contra diversas amenazas no habían sufrido «esta tipo de deriva de la misión ”. Por ejemplo, WhatsApp proporciona a los usuarios cifrado de extremo a extremo para proteger su privacidad, pero también utiliza un sistema para detectar malware y advertir a los usuarios que no hagan clic en enlaces dañinos.

Apple fue una de las primeras empresas importantes en adoptar el cifrado de extremo a extremo, en el que los mensajes se codifican para que solo sus remitentes y destinatarios puedan leerlos. Sin embargo, las fuerzas del orden han presionado durante mucho tiempo a la empresa para que tenga acceso a esta información. Apple dijo que los últimos cambios se implementarán este año como parte de sus actualizaciones de software operativo para iPhone, Mac y Apple Watch.

«La protección ampliada de Apple para los niños cambia las reglas del juego», dijo John Clark, presidente y director ejecutivo del Centro Nacional para Niños Desaparecidos y Explotados. “Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños. »

Pero el Centro para la Democracia y la Tecnología, con sede en Washington, pidió a Apple que abandonara los cambios, que, según dijo, en realidad destruyeron la garantía de la compañía de cifrado de extremo a extremo. Escanear mensajes en busca de contenido sexualmente explícito en teléfonos o computadoras de hecho rompe la seguridad, dijo.

El grupo también cuestionó la tecnología de Apple para diferenciar entre contenido peligroso y algo como arte o un meme. Estas tecnologías son notoriamente propensas a errores.

Apple niega que los cambios constituyan una puerta trasera que degrade su cifrado. Él dice que estas son innovaciones cuidadosamente investigadas que no interrumpen la privacidad del usuario, sino que la protegen fuertemente.

[ad_2]

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *