Retroceso
Apple desistió, por ahora, de escanear la nube en busca de imágenes de sexo infantil
Ante las críticas por violación a la privacidad, la empresa de la manzanita decidió retroceder en su iniciativa.
Después de recibir abundantes críticas en torno a la privacidad de los usuarios, Apple decidió retrasar los planes para implementar la tecnología de detección de abuso sexual infantil (CSAM, por sus siglas en inglés).
Las nuevas herramientas estaban previstas para ser lanzadas a finales de este año y tenían el objetivo de detectar e informar a las autoridades sobre la circulación de contenido de abuso sexual infantil en las fotografías de iCloud , no obstante, esto generó preocupación entre grupos preocupados por la privacidad de los usuarios.
Recomendado para vos