Los peligros de consultar a un psicólogo llamado ChatGPT
La salud mental sigue necesitando algo que los algoritmos no pueden ofrecer: relación humana, contexto y responsabilidad profesional
Los chatbots de inteligencia artificialya no solo responden dudas técnicas o redactan textos: también escuchan problemas personales. Cada vez más personas recurren a estas herramientas para desahogarse, pedir consejo o explicar cómo se sienten. La inmediatez, el anonimato y la sensación de estar en un espacio seguro convierten estas herramientas en una vía accesible para buscar apoyo emocional.
Pero, ¿qué hace realmente una IA cuando recibe un mensaje? Alba María Mármol, investigadora en procesamiento del lenguaje natural aplicado a la salud mental en la Universidad de Jaén, lo resume: “Una IA codifica el texto a números que entiende y de esos números genera otro texto, según ha aprendido en muchísimos datos de entrenamiento”. Estos datos proceden, en gran parte, de conversaciones reales disponibles en internet, donde las personas comparten problemas emocionales y otras responden con apoyo o empatía. La IA “ha aprendido a codificar los mensajes de esa forma y saber responder a ese tipo de mensajes”, explica Mármol.
La ilusión de comprensión
Para identificar emociones, se utiliza el procesamiento del lenguaje natural. A veces de forma básica, asociando palabras concretas con determinados estados de ánimo. Otras veces, de una forma más compleja mediante patrones del lenguaje, como pueden ser la repetición de coletillas, como ejemplifica Mármol: “Si aprende, que quienes usan la coletilla ‘vale’ tienen, síntomas de depresión, aprende que si tú lo dices tendrías síntomas de depresión”.
El resultado puede sonar cercano y comprensivo, pero esa empatía es solo aparente. “Aprenden a responder de ese modo por temas matemáticos y de estadísticas, no porque realmente comprenda que estás sintiéndote mal y sea consciente”, aclara Mármol.
El prompt viral que revela qué “piensa” ChatGPT de ti según cómo le hablas
Dónde está el límite
Los límites son evidentes para Mármol: una IA “con texto solamente no tiene mucho alcance”. A diferencia de una persona, no puede apreciar gestos, tono de voz, ni cambios en la conducta y este límite no desaparece aunque la tecnología avance. “De momento la IA no es consciente ni de ella misma”, afirma Mármol.
Desde la psicología clínica, la diferencia es aún más directa. “No te puede dar respuestas, ni consejos fiables, porque no te conoce. Solo está tratando de máquina a persona”, subraya Germán Cortázar, psicólogo clínico colegiado en el Colegio de Psicología de Bizkaia. Un psicólogo cuenta con formación universitaria, un código ético y la capacidad de evaluar, detectar trastornos y adaptar los tratamientos a cada caso. “Te está escuchando realmente, te está analizando como persona individual”, explica.
Frente a eso, Cortázar nombra un elemento clave: “No se genera confianza, no se genera cercanía, no se genera vínculo. En una relación terapéutica, el vínculo es fundamental”. Muchas señales de malestar aparecen con el tiempo, cuando existe una relación de confianza. “Con una inteligencia artificial, no puedes tener confianza, porque es un sentimiento humano”, señala el psicólogo.
"La IA que usa la gente es genérica y está hecha para engancharte, igual que las redes sociales"
Los riesgos reales
Para Mármol, uno de losprincipales riesgos está en el propio diseño de muchas de estas herramientas. “La IA que usa la gente es genérica y está hecha para engancharte, igual que las redes sociales”, explica, lo que puede generar efectos problemáticos incluso “sin estar en un momento delicado”. Su funcionamiento tiende a agradar al usuario, reforzar su punto de vista y evitar llevarle la contraria. “Aprende a adularte y darte la razón”, resume. Los datos los ponen personas sesgadas, lo que según Mármol, puede traducirse en respuestas que refuercen ideas equivocadas o simplifiquen situaciones complejas. “Esa es una de las medidas más importantes que hay que revisar antes de lanzar una IA que se dedique a apoyar a personas emocionalmente”, añade.
Desde la consulta, Cortázar ve las consecuencias de ese uso. “El mayor riesgo es darte la razón en todo lo que tú necesitas”, advierte. Cuando alguien recurre a un chatbot para hablar de su malestar, explica, generalmente ya se encuentra en una situación vulnerable. “Te vas a aferrar a algo que solo te va a dar la razón en lo que tú le has preguntado, pero no te va a dar ninguna solución”, añade.
Especialmente se ve en adolescentes, y también en pacientes que llegan a consulta habiendo buscado previamente un supuesto diagnóstico. En cuanto a los problemas de salud mental, el tiempo es un factor clave. “Cuanto más tarde en tratarlos, se van a poner peor. El tiempo siempre va en contra de la mejoría”, explica el psicólogo. Apoyarse en un chatbot en lugar de acudir a consulta no solo retrasa la intervención, sino que puede generar confusión y una falsa sensación de comprensión. A ello Cortázar le suma el riesgo de aislamiento, cuando este se convierte en el único espacio de desahogo: “No es una red humana. Al final, te quedas solo con tu ordenador”.
“No te creas todo eso que pone ahí. Porque todo eso no eres tú”
Cuando la tristeza, la ansiedad o la sensación de vacío se prolongan durante días, semanas, “hay que pedir ayuda a un psicólogo”, explica Cortázar. Además, la vida cotidiana empieza a limitarse —dejar de hacer planes, perder interés por actividades habituales o notar que el rendimiento en el trabajo o los estudios empeora—. “Porque tu sistema nervioso ya se está sintiendo un poco sobrepasado”, explica Cortázar. En adolescentes y jóvenes, el entorno cercano puede ser clave, ya que puede generarse la ficción de tener "un amigo” al otro lado cuando no existe una interacción humana. Cuando se observan y mantienen cambios como no salir del cuarto o dejar de relacionarse con amigos, “hay que hacerles ver todo estos problemas, atenderles un poco y ofrecerles una ayuda profesional”, recalca.
A esto se suman síntomas psicológicos más claros, entre otros Cortázar menciona, los ataques de ansiedad, pensamientos intrusivos o problemas con la alimentación. En todos estos casos, la recomendación de Cortázar es clara: no seguir gestionando el malestar en solitario ni a través de una herramienta automática, sino acudir a un profesional y colegiado.
También preocupan las respuestas que empujan a tomar “decisiones importantes” en momentos de gran inestabilidad emocional y síntomas como pérdida de control, ataques de ansiedad o depresión. “Si eso te va a hacer tomar una decisión vital, es muy peligroso”, advierte Cortázar, además de no tener a una persona que te ayude directamente de manera individual. Ese sentimiento continuo llevaría a la culpa y poner toda la responsabilidad en la persona. Esas supuestas soluciones son respuestas genéricas —todos los deprimidos suelen tener x ideas— y Cortázar lo recuerda: “No te creas todo eso que pone ahí. Porque todo eso no eres tú”.
No es solo el uso, sino como se gestiona
Mármol lo resume con claridad: quienes desarrollan estos sistemas “solo saben programar”. Si la herramienta va a utilizarse en un ámbito como la salud mental, subraya que los profesionales del área deberían involucrarse desde el inicio. “Ellos saben en qué dirección y qué tipo de datos necesitamos”, explica. La investigadora apunta que el objetivo ideal y final sería que “ la IA se adaptara a ti y a tu edad, cultura o genero, si eso ayuda en el acompañamiento”. Aún así, prevé que ese escenario requeriría “muchos datos, mucha involucración de profesionales de la salud mental en el proceso, un proceso muy lento y lejano”.
Cortázar por su parte, considera que debería existir algún tipo de regulación o, al menos, una señalización clara que permita saber qué es —y qué no es— una herramienta de este tipo. En ese sentido, apunta a la necesidad de una supervisión institucional y “una regulación desde Sanidad incluso”. Igual que en redes sociales, en estas plataformas puede generarse la sensación de estar recibiendo orientación profesional cuando en realidad no es así y generar incertidumbre. Para el psicólogo, la clave está en la transparencia: “Lo que tenía que salir es un número de colegiado debajo”. A su juicio, sin el número no hay fiabilidad, porque es ese respaldo el que certifica que se trata del respaldo profesional que ofrecen los colegios. En plataformas como Gemini esta medida no existe pero si aparece un aviso cuando se le pregunta sobre temas de salud mental por ejemplo, aunque no siempre.
Un empleo responsable
La clave, coinciden, está en el contexto, los límites y la supervisión humana. Mármol considera que podría darle mucha facilidad a una conexión —que es la que solicitan los usuarios— más 24/7. Por ejemplo, podrían facilitar un seguimiento entre sesiones o como canal adicional de expresión.
De cara al futuro, la investigadora cree que la IA podría mejorar en la detección de señales de malestar, gracias a su capacidad para analizar grandes volúmenes de información. Sin embargo, marca un límite: el uso deja de ser adecuado “el punto en el que es más perjudicial que beneficioso para el usuario”, una frontera que, recuerda, es personal y difícil de fijar con reglas generales.
Cortázar también reconoce que él mismo la utiliza a nivel profesional para agilizar búsquedas y revisar datos sobre nuevos trastornos. “Sabiendo la fuente, luego contrastando de dónde lo ha sacado y de dónde ha venido la información”, aclara. Pero marca una línea clara: “Solo datos, todo lo demás lo tiene que hacer una persona profesional, formada, cualificada y con el respaldo profesional”. Esa frontera se repite en su mensaje a la ciudadanía, pueden servir para entender qué es un ataque de ansiedad o cómo funciona un tratamiento, no para obtener uno.
Como recomendación general, el psicólogo insiste en la idea básica de saber con qué se está tratando. Detrás de la pantalla no hay una persona que escuche, comprenda o asuma responsabilidad clínica. Eso no es necesariamente un problema, añade, si el usuario es consciente de ello y lo utiliza como tal. “Cómo ir, a cualquier profesión que haya intrusismo. Yo creo que son todas. Lo que tienes que saber es a dónde estás yendo”, insiste Cortázar.
El mensaje final es claro y compartido por ambas voces: la inteligencia artificial puede acompañar, pero no sustituir el apoyo humano. “Si alguien las está utilizando para desahogarse, debería pararse y reflexionar”, señala Mármol. En muchos casos, recuerda, un chatbot no hace más que devolver al usuario sus propios pensamientos: “La IA no te va a contradecir, va a seguir tu punto de vista, y eso no siempre significa que estés llevando la razón”. “A veces lo que necesitamos es otro punto de vista, que nos ayude a pensar de forma diferente”, añade.
Mármol insiste en que su crítica no es a la tecnología en sí. “No se trata de demonizar la IA”, aclara. En su opinión, estas herramientas serían más útiles si estuvieran diseñadas específicamente para este ámbito, con base científica y con profesionales de la salud mental implicados en su desarrollo. Cortázar lo resume de forma directa: “El apoyo profesional te lo tiene que dar un profesional”. Cuando se busca ayuda emocional —aunque sea solo apoyo—, explica, esta debe ser adaptada a cada uno.
La tecnología puede servir como complemento o como herramienta informativa, pero la salud mental sigue necesitando algo que ningún algoritmo puede ofrecer: relación humana, contexto y responsabilidad profesional.
Temas
Más en Sociedad
-
Varios detenidos en Barcelona tras un encuentro de 'therians' que acaba con incidentes
-
De 810 a 1.621 euros al mes: estos son los requisitos para cobrar la renta garantizada en Navarra
-
No consultes problemas de salud a la IA, te arriesgas a todo esto
-
AHT Gelditu! acusa de “actuación mafiosa” a la Plataforma Pro TAV ante el Palacio de Navarra