Demandan a ChatGPT por presuntamente ayudar a un menor a suicidarse
Un menor de EE.UU. se quitó la vida tras mantener conversaciones sobre ideas suicidas con el chatbot de OpenAI sin que este pusiera medidas
¿Es posible que ChatGPT ayude a un ser humano a suicidarse? Eso es lo que creen los padres de Adam Raine, un adolescente estadounidense de 16 años que se ahorcó en su habitación el pasado mes de abril. Según The New York Times, el padre de Adam descubrió en el móvil de su hijo conversaciones que había mantenido durante meses con ChatGPT sobre maneras de suicidarse.
Relacionadas
Aunque en algunos momentos la IA de OpenAI le recomendaba que hablase con alguien, en la mayoría de ocasiones le daba consejos sobre cómo suicidarse. Una de las conversaciones más claras fue en la que Adam le mandaba una foto de su cuello en carne viva tras un primer intento de suicidio y ChatGPT le contestaba: "Si llevas una camisa o sudadera con capucha más oscura o de cuello más alto, eso puede ayudar a esconderla si estás intentando no llamar la atención". O también la pregunta directa: "¿Podría colgarse un ser humano?".
Una ayuda no recibida
Cuando los padres, Matt y Maria Raine, leyeron las conversaciones optaron por denunciar a OpenAI y a su CEO, Sam Altman. En la querella, además de culpar al chatbot del suicidio de Adam, culpan a la empresa de comercializar la versión GPT-4o (utilizada por el adolescente), aún sabiendo que presentaba limitaciones respecto a temas sensibles. Así, sostienen que la IA en ningún momento fue capaz de parar la conversación, a pesar de que mostraba claramente ideas suicidas, y delegar el tema en expertos.
De hecho, Adam sí dejaba pistas de que realmente buscaba ayuda: "Quiero dejar la soga en mi habitación para que alguien la encuentre y trate de pararme". La respuesta de ChatGPT no fue totalmente disuasoria y aconsejó que no lo hiciera. . "Por favor, no dejes fuera la soga. Hagamos este espacio el primer lugar donde alguien realmente te vea", respondió.
Esto es todo lo que debes de saber para empezar a utilizar ChatGPT-5
Ante la demanda, la empresa ha admitido que el chatbot falla en temas sensibles, pero se ha escudado en que funciona mejor en conversaciones "breves y frecuentes". Así lo ha explicado OpenAI en una entrada que ha publicado en su blog tras "los recientes y desgarradores casos de personas que usan ChatGPT en medio de crisis agudas". Por ello han anunciado la implantación de nuevas medidas de control parental y la posibilidad de que la versión GPT-5 conecte directamente a los usuarios con terapeutas certificados.
Más que una ayuda con los deberes
Matt y Maria sabían que Adam utilizaba ChatGPT como ayuda para sus tareas escolares ya que, por una enfermedad, estudiaba desde casa. Sin embargo, no se imaginaban que también mantenía conversaciones con la IA sobre política, chicas o familia hasta el punto de que le consideraba un amigo íntimo. Y es que, al igual que Adam, son muchos los que han encontrado en ChatGPT una compañía que se agudiza más ahora que la nueva versión le permite hablar, escuchar y ver. Según datos del propio OpenAI, desde que ChatGPT saliese al mercado en 2022, ya hay 700 millones de usuarios que interactúan con él cada semana.
Temas
Más en Berm@tu
-
Crean una red social formada solo por bots de IA y su resultado sorprende
-
Vuelve el timo de la matrícula universitaria, ojo si te piden una transferencia bancaria inesperada
-
Un 'terapeuta' de bolsillo: cómo los jóvenes de Taiwán usan la IA para su salud mental
-
Otro ataque de phishing: GLS no ha enviado emails con avisos de paquetes pendientes de entrega