La IA de Musk borra publicaciones "inapropiadas" tras las quejas por sus mensajes antisemitas
La compañía insiste en que, tras revisar la naturaleza de las publicaciones, "ha tomado medidas para prohibir el discurso de odio"
La empresa de inteligencia artificial xAI, vinculada a la red social X del magnate Elon Musk, ha eliminado varias publicaciones "inapropiadas" de su herramienta conversacional Grok tras recibir quejas sobre la propagación de contenido antisemita y comentarios -ahora borrados- en los que el 'chatbot' habría elogiado a Adolf Hitler. "Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas", ha publicado xAI en el perfil de Grok en esa red, sin mencionar en detalle el contenido de los mensajes eliminados.
La compañía de IA de Musk insiste en que tras revisar la naturaleza de las publicaciones, "ha tomado medidas para prohibir el discurso de odio antes de que Grok publique en X". "xAI entrena únicamente en la búsqueda de la verdad y, gracias a los millones de usuarios en X, podemos identificar rápidamente y actualizar el modelo allí donde el entrenamiento pueda mejorarse", indica la empresa.
Respaldo al Holocausto
Capturas de las publicaciones eliminadas muestran cómo Grok habría elogiado las políticas de Hitler, insinuado que las personas de origen judío eran más propensas a propagar mensajes de odio en línea, y expresado un aparente respaldo a las prácticas del Holocausto. "Lo que estamos viendo ahora mismo en (las publicaciones de) Grok es simple y llanamente irresponsable, peligroso y antisemita. Este impulso a la retórica extremista solo servirá para amplificar y alentar el antisemitismo que ya está en aumento en X y muchas otras plataformas", ha respondido en X la judía Liga contra la Difamación (ADL en inglés).
Ideologías de odio
Según ADL, "la última versión del modelo Grok está reproduciendo terminología frecuentemente utilizada por antisemitas y extremistas para difundir ideologías de odio". Este es un fenómeno "preocupante" porque, según la organización, esto demostraría que "el modelo puede replicar frases y expresiones que, aunque a veces parecen inocuas, han sido apropiadas por grupos radicales para diseminar mensajes de intolerancia y discriminación".
No es la primera vez que la empresa xAI se ve envuelta en polémica. En mayo pasado, la compañía rectificó después de que Grok calificara la situación del grupo étnico afrikáner -sudafricanos blancos descendientes de colonos neerlandeses- como "genocidio blanco" en respuestas a preguntas de usuarios que en su mayoría no tenían que ver con Sudáfrica, país del que Musk es oriundo. Entonces, xAI explicó que el comportamiento de su 'chatbot' se debió a una "modificación no autorizada" en los automatismos de respuesta
Temas
Más en Sociedad
-
Más de 340 moderadores de contenido de Barcelona demandan a Meta por daños psicológicos
-
Tiempo en Navarra: ligero ascenso de las temperaturas máximas en la Comunidad Foral
-
Los siniestros con moto han dejado 43 fallecidos y 1.500 heridos en la última década
-
Unicef expresa su preocupación por el arresto de niños en las protestas de Kenia