Apple retrasa sus planes de lanzar la detección CSAM en iOS 15
Apple ha retrasado sus planes de lanzar la detección CSAM (Child Sexual Abuse Material) en iOS 15 tras el feedback recibido con el anuncio de la característica el pasado mes de agosto, citándose que el feedback recibido por clientes, grupos de abogacía, investigadores y otros, ha sido principalmente negativo, como cabría esperar.
El sistema de detección CSAM de la compañía permite, a través de los hash de los archivos encriptados, identificar imágenes conocidas como sospechosas de abuso infantil, de modo que funciona más como una base de datos de hashes que como una herramienta que realmente analice el contenido de los terminales de los usuarios de la compañía.
Sin embargo, la tecnología NeuralHash ha demostrado tener sus agujeros, y es que algunos investigadores consiguieron, en cuestión de semanas, crear colisiones de hash, algo que implica que una imagen inocua diseñada específicamente para causar problemas a usuarios de la red haría saltar los sistemas de Apple y potencialmente podrían poner a usuarios incautos en situaciones legales complicadas.
En cualquier caso, tal como vemos en TechCrunch, por ahora el sistema ha sido retrasado, de modo que es posible que Apple trabaje en que esto no sea posible de nuevo y cuenten con un sistema lo suficientemente fiable como para que pueda desplegarse a gran escala en iOS 15 sin preocupaciones de falsos positivos ni problemas de privacidad.
Fin del Artículo. ¡Cuéntanos algo en los Comentarios!