Con el nuevo sistema operativo iOS 15, Apple iba a implantar un sistema con el objetivo de luchar contra la pornografía infantil. Para entender el sistema debemos conocer primero algunos datos.

— El Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos tiene una base de datos de millones de fotos y vídeos relacionados con la pornografía infantil.

— A través de un proceso llamado hashing, cada fotos es reducida a un hash, una composición numérica que identifica esas fotos, como si fuese una huella digital.

— Cada foto solamente puede ser reducida a un hash, y no puede haber dos iguales.

— Tomando un hash no se puede reconstruir la foto o vídeo del que ha sido obtenido.

La intención de Apple era la siguiente: cuando un usuario de un iPhone sincronizase las fotos con iCloud, su sistema de almacenamiento en la nube, cada foto y vídeo de ese usuario sería convertida en un hash que se compararía con los que han sido obtenidos de la base de datos del Centro Nacional para Niños Desaparecidos y Explotados (NCMEC) de Estados Unidos. En caso de coincidencia, se notificaría a la Policía. Según explicaban en el proceso, no iba a haber nadie que viese las fotos de los usuarios porque lo único que se compararía de forma automática sería un hash, y como queda dicho no se pueden reconstruir fotos y vídeos a través de él.

Este anuncio levantó muchas críticas por parte de personas y organizaciones preocupadas por la privacidad. Argumentaban que iba a crear un precedente muy peligroso y una gran vulneración del ámbito privado, que sería el inicio de una vigilancia masiva de los usuarios. Ese precedente sería peligroso porque Apple perdería el control sobre cómo se puede usar ese precedente. Es decir, que Apple decidiría si los teléfonos monitorizan a los usuarios o no, pero serían los gobiernos los que decidirían qué constituye una infracción.

Edward Snowden publicaba en su blog el 26 de agosto: "¿Qué sucederá cuando, para proteger a los niños, se aprueben proyectos de ley obligando a Apple a escanear fotos que no están respaldadas en iCloud? ¿Qué sucederá cuando un partido en la India exija que se comiencen a buscar memes asociados con un movimiento separatista? ¿Qué sucederá cuando el Reino Unido exija que busquen una biblioteca de imágenes terroristas? ¿Cuánto tiempo nos queda antes de que el iPhone comience a presentar silenciosamente informes sobre el encuentro de material político extremista o sobre su presencia en un disturbio civil? ¿O simplemente sobre la posesión de su iPhone de un videoclip que contiene, tal vez o tal vez no, una imagen borrosa de un transeúnte que se parece, según un algoritmo, a una persona de interés?".

La polémica está servida. Por un lado los iPhones son teléfonos que también utilizan pederastas, delincuentes y terroristas debido a su nivel de privacidad, y la Policía se queda sin herramientas para continuar muchas investigaciones. Que se comparen los hash obtenidos de las fotos y vídeos que los usuarios tienen sincronizados con iCloud, donde no se pueden ver ni reconstruir esas fotos y vídeos, con los obtenidos de la base de datos del NCMEC, no supone en opinión de muchas personas una gran invasión a la privacidad.

Pero también es cierto que si la intención de Apple fuese solamente comparar los hash de las fotos sincronizadas con iCloud, quienes tuviesen material pedófilo en sus teléfonos lo único que tendrían que hacer para seguir igual sería no sincronizar las fotos y vídeos con iCloud. Además, esta medida sería un gran precedente para comenzar con el fin de la privacidad de todos los smartphones, en especial de los iPhones, y puede suponer el cruce de la línea que diferenciaba que los dispositivos estuviesen al servicio de los usuarios y pasasen a estar al servicio de sus compañías o de diferentes gobiernos.

¿Debemos renunciar a nuestra privacidad por los intereses en materia de seguridad? Tras todo el revuelo causado con su anuncio, hace unos días Apple decidió retrasar la implantación de ese sistema.