Javier Pastor
Seguramente recordéis ese cartel publicitario. Fue parte de una campaña que destacaba cómo Apple se preocupaba por nuestra privacidad.“Lo que pasa en tu iPhone, se queda en tu iPhone”, decían. Ese argumento se unía a otros como los de la privacidad diferencial, pero los últimos movimientos de esta empresa han hecho que muchos se preocupen.
Se trata desus nuevas iniciativaspara (teóricamente) proteger la seguridad de los niños y limitar la difusión de la pornografía infantil. Para ello Apple básicamenteescanea los iPhone y alerta de la presencia de imágenes sospechosas. El movimiento tiene sentido para algunos, pero cruza una peligrosa línea para otros.
Tres formas de vigilar nuestros móviles
El anuncio de Apple se produce en un momento singular en el que el escrutinio de la compañía por su férreo control de la App Storeestá en tela de juicio(literalmente), pero esta vezafecta a un área especialmente delicada.
Apple, quese había autoproclamado como gran defensora de nuestra privacidad(frente a las Google y Facebook del mundo), plantea ahora medidas que para muchos hacen que se caiga esa filosofía.
En eldocumento de Applehay una mención frecuente del términoCSAM(por ‘Child Sexual Abuse Material’, es decir,pornografía infantil). Esas medidas son tres:
Al final del documento se ofrece información técnica sobre cada uno de los componentes que permiten poner en marcha esas iniciativas, pero ciertamente todas estas iniciativashan avivado la polémica sobre el delicado equilibrio entre privacidad y seguridad.
Como explicaba John Gruberen Daring Fireball, es importante conocer el alcance de estas medidas. La tercera de esas medidas, la que afecta a Siri y a las búsquedas, parece ciertamente fácil de entender y no es especialmente controvertida porqueno hay un escaneo activodel contenido de nuestro teléfono móvil. Veamos qué pasa con las dos primeras medidas, que son algo más comprometedoras.
Messages: todo queda en familia (o eso dice Apple)
Eso cambia con las dos primeras medidas de esta iniciativa, pero la puesta en marcha de ese escaneo es limitado. Por ejemplo, en el caso de la primera medida, la referente a la aplicación Messages, esa monitorización de mensajessolo se produce en el caso de que el móvil lo usen niños que forman parte de una cuenta familiar de iCloud.
Eso significa que nada cambia para usuarios adultos de los iPhone y de iCloud, y de hecho si eres padre de familia y tus hijos tienen un iPhone o un iPad susceptible de ser “escaneado”, Apple solo realizará ese proceso si tú lo activas (es una característica “opt-in” explícita):por defecto está desactivado.
En el caso de que el padre la active para los iPhone/iPad de sus hijos, si un niño recibe o envía (y quiere visualizar) una imagen que activa una advertencia, la notificación se envía desde el dispositivo del hijo al de los padres.Ni Apple ni las agencias de seguridad son avisadas de ese evento y todo “queda en familia”, por decirlo de algún modo.
La medida afecta además a la aplicación Messages, pero no al servicio iMessage: todos los mensajes siguen estando cifrados de extremo a extremo, y la detección de imágenesse produce siempre en local, en el dispositivo(nunca “en la nube”, es decir, nunca en los servidores de Apple, que teóricamente no se entera de nada) antes de enviar la imagen o después de recibirla.
Este procesosí que realiza análisis de contenidopara tratar de identificar imágenes sexuales explícitas. Si las detecta, la imagen se desenfocará automáticamente y se enviará esa advertencia al niño e incluso se podrá activar el aviso para los padres si a pesar de todo el niño ve la imagen.
iCloud Photos: Apple escanea hashes, no imágenes
La segunda parte de esta iniciativaes la que se refiere a iCloud Photosy la detección de imágenes de pornografía infantil (CSAM). Es importante destacar que “solo” se aplica a iCloud Photos, así que si no somos usuarios de esa opción, no nos afectará.
El problema, claro, es quela inmensa mayoría de usuarios de iPhone y iPad utilizan iCloud Photoscomo sistema de copia de seguridad que les permite guardar su fototeca en la nube y tenerla siempre disponible mientras liberan espacio en sus dispositivos.
Esta medida, a diferencia de la anterior,no es ‘opt in’, y está activada por defecto. Si usas iCloud Photos, las imágenes que tengas en tu biblioteca en la nube estarán sujetos a ese proceso de ‘fingerprinting’ un término con difícil traducción al español que equivaldría un “proceso de identificación mediante características especiales” (como la huella dactilar, que sería un caso específico).
Como explica Gruber, en este casoel proceso de identificación no equivale a un análisis del contenido. Apple no sabe lo que hay en la foto, y lo que básicamente ocurre es que Apple compara una imagen en tu dispositivo con otra que sabe que sí es de pornografía infantil. ¿Cómo lo sabe? Porque esa imagen está en una base de datos oficial que está gestionada por un organismo oficial de EE.UU. llamado NCMEC.
Apple no ve ni la imagen original ni la de la base de datos. Lo que ve son números. Cada imagen tiene una especie de huella dactilar (de ahí lo del ‘fingerprinting’) y esa se compara con la “huella dactilar” de la imagen que está en iCloud Photos. Si son iguales, se activa la alerta, porque se detecta que esa imagen es efectivamente de pornografía infantil.
Esta parte de la iniciativasí que puede activar una alerta hacia Apple: no se especifica cuántas imágenes de pornografía infantil activan esa alerta que avisa a Apple. Según los responsables del sistema, el margen de error es ínfimo (“una entre un trillón”) y aún así alguien en Apple examinará esa alerta (que es en esencia una versión de baja resolución de la imagen) antes de avisar o no a las autoridades.
Críticas por doquier
Las críticas han sido numerosas y han venido desde diferentes frentes. Entre quienes ven el movimiento con preocupación estánlos que afirmanque Applequiere normalizar la idea de que una empresa escanee el contenido de nuestro teléfono, así que empiezan haciéndolo con una idea medio razonable.
La Electronic Frontier Foundation (EFF) tampoco ve con buenos ojos esa iniciativa de Apple, yafirmaque la empresa “está abriendo la puerta a abusos más amplios” de nuestra privacidad. De hecho, aseguran, “es imposible crear un sistema de escaneo local que pueda ser usado únicamente para imágenes explícitas enviadas o recibidas por niños”.
De hecho a Apple solo le basta ampliar los límites de su algoritmo de aprendizaje profundo “para buscar otros tipos de contenido oajustar los parámetros de configuración para escanear no solo las cuentas de niños, sino las de cualquiera. Eso no es solo un terreno resbaladizo: es un sistema completamente construido que solo espera la presión externa para hacer el más mínimo cambio”.
No matter how well-intentioned,@Appleis rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow.They turned a trillion dollars of devices into iNarcs—*without asking.*https://t.co/wIMWijIjJk
Es lo queafirmaba por ejemplo Edward Snowden, que ha criticado de forma patente esta iniciativa en su cuenta de Twitter en los últimos días mientras compartía mensajes y análisis de otros expertos en privacidad.
Lo cierto es que la iniciativa de Apple también es sospechosa por cosas como lo que ocurrió en 2018, cuando la empresaabandonó sus planespara ofrecer cifrado de extremo a extremo en los backups de iCloud. Allí los datos no están cifrados,algo que permitiría a una agencia de seguridad como el FBI solicitar a Apple acceso a esas copias de seguridad y fotossi forman parte de una investigación.
Otro de los peligros que se perfilan para este sistema está en su uso en otros países. En Estados Unidos se trabaja con organismos como el NCMEC, pero ¿qué ocurre si un país como China exige que serán ellos los que proporcionarán la base de datos de imágenes de pornografía infantil, y esa base de datosincluye otras imágenes, por ejemplo de disidentes políticos?.
Es lo quepreguntaban en The New York Times, y allí Erik Neuenschwander, Chief Privacy Engineer en Apple, afirmaba que la empresa básicamente se negará a ofrecer tal opción. La empresa ha publicado ademásun nuevo documentotratando esta cuestión, pero nos tememos que eso no es fácil de creer, sobre todo cuando Apple (como otras muchas empresas)se ha plegado de forma clara a las exigencias del gobierno chino en otras ocasiones.
I read the information Apple put out yesterday and I’m concerned. I think this is the wrong approach and a setback for people’s privacy all over the world.People have asked if we’ll adopt this system for WhatsApp. The answer is no.
Otras empresas rivales han aprovechado para atacar a Apple por este tipo de medidas, y es curioso cómouna de las que lo ha hecho es WhatsApp. Su máximo responsable actual, Will Cathcart, ha dejado claro que estaba “preocupado” y que WhatsApp no adoptaría este sistema.
I’ve tried hard to see this from Apple’s point of view. But inescapably, this is government spyware installed by Apple based on a presumption of guilt. Though Apple wrote the code, its function is to scan personal data and report it to government.https://t.co/OrkfOSjvS1
Otro de los que ha aprovechado la coyuntura es Tim Sweeney, CEO de Epic Games. La empresa se encuentra en el centro de la disputa legal con Apple y su App Store, y Sweeney ha aprovechado para criticar una medida que según élno es más que “un spyware gubernamental”.
Initially I understand this will be used to perform client side scanning for cloud-stored photos. Eventually it could be a key ingredient in adding surveillance to encrypted messaging systems.
Matthew Green, profesor de criptografía en la Universidad Johns Hopkins, afirmaba queApple se está acercando peligrosamente a convertirse en una herramienta para la vigilancia gubernamental, y se podría convertir en una herramienta terrible en manos de un gobierno autoritario (como el de China).
El autoproclamado adalid de la privacidadquizás haya ido demasiado lejosesta vez.