Las caras envejecidas de famosos, influencers, amigos, familiares o seguidores de Instagram han inundado las pantallas de nuestros teléfonos móviles. Todos las hemos visto y todos nos hemos reído viendo lo mal que le van a tratar los años al colega que tenemos al lado. Pero, ¿se han preguntado qué aceptan cuando dan permiso a la aplicación (FaceApp) para acceder a su galería de imágenes? Pues la respuesta es que el usuario autoriza que sus fotos y sus datos puedan ser comercializados.

De hecho, las caras de las millones de personas que se han fotografiado con la aplicación están dando la vuelta al mundo hasta recalar en el almacén de datos de FaceApp que está en Estados Unidos y después pueden ser compartidas con otras compañías de su grupo empresarial, que está en Rusia, o con terceras empresas con las que llegue a acuerdos. Así, la información obtenida puede ser usada como un modelo de negocio -vendiendo a terceros nuestros datos para así luego recibir publicidad muy personalizada- o utilizar nuestro rostro como una pieza más de algoritmos de reconocimiento facial -es decir, meten nuestras caras en enormes bases de datos que luego son útiles para Inteligencia Artificial-.

En concreto, FaceApp es una aplicación lanzada en 2017 que modifica la cara del usuario para simular, entre otras cosas, qué apariencia tendrá cuando envejezca. Pertenece a la compañía rusa Wireless Lab y no actualiza su política de privacidad desde enero de 2017, no está adaptada al Reglamento General de Protección de Datos (RGPD) europeo, vigente desde mayo de 2018 y que establece como necesario el consentimiento expreso del usuario para utilizar sus datos. Su uso se volvió viral hace unas semanas cuando personalidades célebres e influencers con millones de seguidores crearon tendencia al subir sus fotografías con aspecto de ancianos, lo que también hizo que se cuestionasen sus políticas de privacidad.

Una práctica extendida Humberto Bustince -catedrático de Ciencias de la Computación e Inteligencia Artificial de la UPNA y uno de los científicos más influyentes del mundo en esta materia- advierte de que las bases de datos a partir de imágenes, como las de FaceApp, son cada vez más comunes y “están creando estragos”. “En algunas ciudades de China hay cámaras que, una vez que tienen tu rostro registrado, pueden controlar todo lo que haces cuando vas por la calle. Entonces, si se detecta que una persona ha cometido tres infracciones, por ejemplo si es joven, pues luego pueden denegarle el acceso a la universidad. Esto es algo que está pasando”, explica Bustince.

Así, estaríamos ante una especie de Gran Hermano, como ya predijo George Orwell en su novela 1984, en la que los ciudadanos estaban constantemente vigilados por telepantallas que captaban todo lo que hacían, o su versión actualizada en un reality televisivo en el que todo lo que hacen y dicen unos concursantes queda grabado para el disfrute de los espectadores. Solo que en este caso, los concursantes somos todos.

Pero estas prácticas poco o nada éticas, en muchos casos ilegales, no son exclusivas de esta aplicación ni es algo reciente. El pasado marzo, eldiario.es ya publicó que la app que el PP promociona entre sus bases no respetaba las normas de protección de datos. Lo mismo ocurrió en junio de 2018, cuando se publicó que la aplicación de La Liga de Fútbol Profesional empleaba los teléfonos móviles de los aficionados para espiar a bares y otros establecimientos que ponen partidos para sus clientes.

“Estamos constantemente creando datos y muchas veces damos permiso ya sea a empresas o a gobiernos para que tengan acceso a información nuestra, donde nos pueden reconocer o ir viendo cómo evolucionamos. Es un verdadero peligro porque la privacidad desaparece”, alerta el catedrático. No obstante, recuerda que “es el usuario el que autoriza estas cosas”, por ello aboga por, si no prohibir, sí “informar muy bien de cuál es el funcionamiento de todo esto”.

“Esto va de negocio. Siempre hay alguien detrás que se beneficia. Venden tus datos a terceras personas para que luego te llegue publicidad personalizada e incluso pueden predecir cómo vas a actuar en un futuro”, explica. En este sentido, asegura que, a día de hoy, “la industria de datos es la más importante que existe”. De hecho, en el año 2017 las diez empresas más destacadas del mundo manejaban datos, no eran compañías de automóviles o de petróleo, sino que exclusivamente comercializan con datos.

el futuro pasa por la legislación Dejando a un lado la clara vocación comercial del tráfico de datos, se encuentra la vertiente del reconocimiento facial. Sobre esto, Bustince explica que hay dos tipos de procesamiento de datos: programas de buscadores con los que se procesan millones de datos y la inteligencia artificial. Es esta última la que tiene un gran poder: “Con los datos de imágenes faciales hay un caso muy llamativo con Instagram. La revista EPJ data science publicó un artículo sobre un estudio que se había hecho a los adolescentes a partir de sus fotografías en la aplicación. Con la información de la evolución de los rasgos de miles de usuarios podían predecir quiénes iban a tener depresión. El resultado fue que el estudio acertó en el 99% de los casos”, señala el científico.

Algo tan personal como puede ser una depresión, cotejando millones de datos, se puede predecir. Algo que extrapolado a otros ámbitos puede resultar peligroso: “Si se usa el mismo sistema con los delincuentes que hay en una ciudad y se les clasifica dependiendo de la reiteración, el tipo de delito, etc se puede generar un modelo que se aplique a cualquier persona. Se produce así la ruptura de la causalidad”. Es decir, Bustince apunta a que “si una persona tuviese las características del 100% de los delincuentes que roban coches los martes y pasado mañana es martes, esa persona va a robar un coche. Se le podría detener antes de que cometiese el crimen”.

Esto -de lo que ya se hizo una película de ficción (Minority Report) y que parece totalmente improbable- es algo hacia lo que el catedrático advierte que nos estamos dirigiendo. “Para evitar esto es fundamental una buena legislación, porque la actual no es suficiente”, confiesa, y añade que en el ámbito de la medicina “sí se están poniendo cortafuegos muy buenos”. “Se pasa por comisiones éticas durísimas para tratar con datos de pacientes. La legislación general no tiene que inventar nada, ya tiene un buen ejemplo de cómo tratar datos en el ámbito médico”, comenta.