Síguenos en redes sociales:

Instagram avisará a los padres si sus hijos buscan repetidamente información sobre suicidio

Esta medida se activará para los progenitores de EE. UU., Reino Unido, Australia y Canadá que usan las herramientas de supervisión parental de la red social

Instagram avisará a los padres si sus hijos buscan repetidamente información sobre suicidioMETA

Instagram ha anunciado que "la semana que viene" empezará a notificar a los padres si su hijo adolescente "intenta buscar repetidamente términos relacionados con el suicidio o la autolesión" en su red social, según ha adelantado su compañía matriz, Meta.

Esta medida se activará para los padres de EE. UU., Reino Unido, Australia y Canadá que usan las herramientas de supervisión parental de la red social, y estará disponible en otras regiones "a finales de este año".

"Estas alertas están diseñadas para brindar a los padres la información necesaria para apoyar a sus hijos adolescentes e incluyen recursos especializados para ayudarlos a abordar estas conversaciones delicadas", señala la compañía, que está siendo investigada en múltiples juicios por presuntamente fomentar efectos perjudiciales en la salud mental de los menores.

Funcionamiento de las alertas

Las búsquedas que activarán la alerta incluyen frases que sugieran que un adolescente quiere autolesionarse y términos como "suicidio" o "autolesión".

Dichos avisos se enviarán a los padres por correo electrónico, SMS o WhatsApp, según la información de contacto disponible, así como mediante una notificación en la aplicación.

Al hacer clic en la notificación, se abrirá un mensaje a pantalla completa explicando que su hijo adolescente ha intentado buscar repetidamente términos relacionados con el suicidio o la autolesión en un corto período. Los padres también podrán consultar recursos de expertos diseñados para ayudarles a abordar conversaciones delicadas.

Meta destaca que tiene "políticas estrictas" contra el contenido que promueve o glorifica el suicidio o la autolesión, pero permite que las personas compartan contenido sobre sus propias dificultades, el cual se oculta a los adolescentes, incluso si lo comparte alguien a quien siguen.

La empresa añade que los adolescentes recurren cada vez más a la inteligencia artificial (IA) en busca de apoyo. Las nuevas alertas parentales se aplicarán también a ciertas interacciones con la IA relacionadas con suicidio o autolesión.

Presión judicial y contexto legal

El lanzamiento de estas funciones coincide con un aumento de la presión judicial contra Meta, acusada de diseñar algoritmos que perjudican la salud mental de los menores.

El CEO de Meta, Mark Zuckerberg, compareció recientemente ante el Tribunal Superior de Los Ángeles en el marco de una demanda de una usuaria que alega haber desarrollado adicción a sus plataformas durante la adolescencia. Durante su testimonio, reiteró que la verificación de edad debería recaer en los propietarios de los sistemas operativos y tiendas de aplicaciones, como Apple y Google, y no en los desarrolladores de aplicaciones.

Por su parte, la Comisión Federal de Comercio (FTC) anunció que no sancionará a determinados operadores que recopilen datos para desarrollar tecnologías de verificación de edad, pese a las restricciones de la Regla de Protección de la Privacidad Infantil en Línea (COPPA).

Además, documentos legales publicados la semana pasada como parte de un juicio independiente en Nuevo México detallan mensajes internos de empleados que comentan cómo las medidas de cifrado podrían dificultar la divulgación de denuncias de abuso sexual infantil a las autoridades. Meta ha negado las acusaciones en los casos de California y Nuevo México.