Apple planea escanear iPhones en busca de imágenes de abuso sexual infantil
Los investigadores de seguridad temen que el sistema neuralMatch se pueda utilizar de forma indebida para espiar a los ciudadanos
Apple escaneará bibliotecas de fotos almacenadas en iPhones en los EE. UU. en busca de imágenes conocidas de abuso sexual infantil, dice la compañía, lo que recibió elogios de los grupos de protección infantil, pero cruzó una línea que los defensores de la privacidad advierten que podría tener ramificaciones peligrosas. La empresa también examinará el contenido de los mensajes cifrados de un extremo a otro por primera vez.
La herramienta de Apple, llamada neuralMatch, escaneará imágenes antes de que se carguen en el almacenamiento en línea de iCloud Photos de la empresa, comparándolas con una base de datos de imágenes conocidas de abuso infantil. Si se marca una coincidencia lo suficientemente fuerte, el personal de Apple podrá revisar manualmente las imágenes reportadas y, si se confirma el abuso infantil, la cuenta del usuario se desactivará y se notificará al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC).
Dado que la herramienta solo busca imágenes que ya están en la base de datos del NCMEC, los padres que toman fotos de un niño en el baño, por ejemplo, aparentemente no deben preocuparse. Pero a los investigadores les preocupa que la herramienta de emparejamiento, que no "ve" imágenes, solo huellas digitales matemáticas que las representan, pueda tener diferentes propósitos.
Matthew Green, investigador de criptografía de la Universidad Johns Hopkins, advirtió que, en teoría, el sistema podría usarse para incriminar a personas inocentes enviándoles imágenes aparentemente inocuas diseñadas para activar coincidencias con imágenes de abuso infantil. "Los investigadores han podido hacer esto con bastante facilidad", dijo sobre la capacidad de engañar a tales sistemas.
Otros abusos podrían incluir la vigilancia gubernamental de disidentes o manifestantes. "¿Qué sucede cuando el gobierno chino dice: 'Aquí hay una lista de archivos que queremos que escanee'", preguntó Green. “¿Apple dice que no? Espero que digan que no, pero su tecnología no dirá que no ".
Empresas tecnológicas como Microsoft, Google y Facebook llevan años compartiendo huellas digitales de imágenes conocidas de abuso sexual infantil. Apple los ha utilizado para escanear archivos de usuario almacenados en su servicio iCloud en busca de imágenes de abuso infantil. Pero la decisión de mover dicho escaneo en el dispositivo no tiene precedentes entre las principales empresas de tecnología.
Junto con la tecnología neuralMatch, Apple planea escanear los mensajes cifrados de los usuarios a medida que se envían y reciben mediante iMessage. Una herramienta basada en inteligencia artificial intentará identificar automáticamente imágenes sexualmente explícitas, lo que permitirá a los padres activar filtros automáticos para las bandejas de entrada de sus hijos. Ese sistema, que está destinado exclusivamente a proporcionar herramientas para "advertir a los niños y sus padres cuando reciben o envían fotos sexualmente explícitas", no dará lugar a que se envíen imágenes sexualmente explícitas a Apple o se denuncien a las autoridades. Pero los padres podrán ser notificados si su hijo decide enviar o recibir fotos sexualmente explícitas.
Apple ha estado bajo presión del gobierno durante años para permitir una mayor vigilancia de los datos cifrados. La creación de las nuevas medidas de seguridad requirió que Apple realizara un delicado acto de equilibrio entre tomar medidas enérgicas contra la explotación de los niños y mantener su compromiso de alto perfil de proteger la privacidad de sus usuarios.
Pero la Electronic Frontier Foundation, pionera en las libertades civiles en línea, calificó el compromiso de Apple sobre las protecciones de la privacidad como "un cambio radical para los usuarios que han confiado en el liderazgo de la empresa en materia de privacidad y seguridad".
El científico informático que inventó PhotoDNA hace más de una década, la tecnología utilizada por las fuerzas del orden para identificar imágenes de abuso infantil en línea, reconoció el potencial de abuso del sistema de Apple, pero dijo que el imperativo de abordar el abuso sexual infantil lo superaba con creces.
"¿Es posible? Por supuesto. ¿Pero es algo que me preocupa? No ”, dijo Hany Farid, un investigador de la Universidad de California, Berkeley, quien argumentó que muchos otros programas diseñados para proteger los dispositivos de varias amenazas no se habían visto afectados por“ este tipo de infiltración de misiones ”. Por ejemplo, WhatsApp proporciona a los usuarios cifrado de extremo a extremo para proteger su privacidad, pero también emplea un sistema para detectar malware y advertir a los usuarios que no hagan clic en enlaces dañinos.
Apple fue una de las primeras empresas importantes en adoptar el cifrado de extremo a extremo, en el que los mensajes se codifican para que solo sus remitentes y destinatarios puedan leerlos. Las fuerzas del orden han presionado durante mucho tiempo a la empresa para que acceda a esa información. Apple dijo que los últimos cambios se implementarán este año como parte de las actualizaciones de su software operativo para iPhones, Mac y Apple Watches.
"La protección ampliada de Apple para los niños cambia las reglas del juego", dijo John Clark, presidente y director ejecutivo del NCMEC. "Con tanta gente que usa los productos de Apple, estas nuevas medidas de seguridad tienen el potencial de salvar vidas para los niños".
Apple negó que los cambios equivalieran a una puerta trasera que degradara su cifrado. Dijo que se consideraron cuidadosamente innovaciones que no perturbaban la privacidad del usuario, sino que la protegían.
“En Apple, nuestro objetivo es crear tecnología que empodere a las personas y enriquezca sus vidas, al mismo tiempo que las ayuda a mantenerse seguras”, dijo la compañía en una publicación en la que anunciaba las nuevas funciones. “Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la difusión de material de abuso sexual infantil (MASI).
“Este programa es ambicioso y proteger a los niños es una responsabilidad importante. Estos esfuerzos evolucionarán y expandirán con el tiempo ”.