Apple escaneará automáticamente las fotos del iPhone y iCloud en busca de pornografía infantil
Cristian Rus
La fotografías subidas a iCloud desde el iPhone van a ser verificadas. Apple ha anunciado un nuevo sistema que permitebuscar de forma automática contenido de abuso sexual a menoresy similares. Mediante ello detecta este tipo de contenido prometiendo al mismo tiempo seguir respetando la privacidad del usuario.
El nuevo sistema está pensado para ayudar a las autoridades a hacer cumplir la ley y proteger a los menores. En principio, va a ser activado en Estados Unidos a finales de este año. Aunque en realidad tan sólo una de varias características que van a habilitar paraproteger a menores de peligros online, comohan anunciado en una declaración oficial.
El escaneo de fotografías en busca de contenido de abuso a menores en realidad no es nuevo. Servicioscomo Google Driveya lo hacen también. La diferencia principal aquí es que Apple ha prometido desde un principio a los usuarios una nube cifrada y un contenido al quenadie puede acceder sin las claves de acceso. Y, en teoría, sigue siendo así.
Cómo se detecta el contenido ilegal sin mirar las fotos
ConNeuralHash, un nuevo sistema de Appleque permite identificar si el usuario carga imágenes con pornografía infantil (o contenido ilegal relacionado) en iCloud. Lo hace sin descifrar las imágenes y haciendo uso de un sistema homomórfico que comprueba hashes contra una base de datos de imágenes ya conocidas y reportadas previamente.
Appledice que ni siquiera ellos pueden saber qué hay en esas fotografías. A menos, claro, que se cruce un umbral de contenido ilegal conocido. Si el sistema detecta la posibilidad de que haya un contenido significante de imágenes ilegales, se le avisa a Apple y se revisa manualmente el informe para confirmar que hay una coincidencia alta. En ese momento se deshabilita la cuenta del usuario y se envía un informe a las autoridades.
En otras palabras, Apple asegura que no vulneran la privacidad de los usuarios con este nuevo sistema. Para ello sólo analizan imágenes antes de que sean subidas a iCloud y en el dispositivo del usuario.Sólo si el sistema detecta una colección de imágenes de abuso infantilque coinciden con una base de datos ya establecida, comprobarán el contenido y será enviado a las autoridades.
Fotografías difuminadas en Mensajes y ayuda de Siri
Aparte de este sistema de revisión de imágenes, la compañía introducirá una serie de herramientas para proteger mejor a los menores usado el iPhone. Por ejemplo,la app Mensajes detectará automáticamente imágenes sexualmente explícitasy las difuminará. Una alerta saltará y le indicará al niño que puede encontrarse detrás de esa imagen si desea abrirla. Así mismo, se le avisará de que los padres serán avisados y verán la fotografía también.
Así mismo, Siri, el asistente virtual de Apple,ofrecerá ayuda a los usuarios en relación a contendido de abuso sexual a menores. Si el usuario busca cómo reportar contenido de abuso sexual se le llevará a recursos y herramientas para hacerlo. Por otro lado, si el usuario busca contenido de abuso sexual en sí, se le informará de que puede ser dañino y problemático.
Más información |Apple