Siete tipos de datos que nunca debes compartir con la inteligencia artificial
La IA avanza imparable, pero hay cierta información que no debes ofrecer en ChatGPT u otros chatbots para no poner en peligro ni tu privacidad ni tu seguridad
La inteligencia artificial (IA) ha revolucionado la forma en la que nos relacionamos con la tecnología. Primero fue el asistente virtualChatGPT, el chatbot que utiliza IA para comprender, generar textos y mantener conversaciones con los usuarios, y ahora llega su versión GPT-4o, capaz de generar imágenes a través de instrucciones en texto y otros archivos cargados en la conversación.
Relacionadas
OpenAI lanzó la semana pasada el generador de imágenes con IA al estilo Ghibli de ChatGPT que ha arrasado en redes sociales. Este fenómeno ha desatado una fuerte preocupación acerca de la privacidad de los usuarios, ya que estos pueden estar compartiendo datos personales sin saberlo.
Las plataformas de inteligencia artificial recopilan y procesan grandes volúmenes de datos por lo que, si quieres mantener tu intimidad y tu seguridad intactas, debes conocer qué informaciones no debes compartir nunca con ellas.
Esto son los consejos de uno de los creadores de ChatGPT para que tu IA sea la más eficaz
Ten siempre presente que, si algo no lo dirías en voz alta en un lugar público o no lo pondrías en un sitio web abierto, tampoco deberías dárselo a una IA sin saber con certeza cómo se van a gestionar esos datos. Algunas de esas informaciones que nunca deberías compartir son:
1- Datos personales
Nunca debes exponer en una conversación con una IA datos como tu nombre completo,fecha de nacimiento, dirección física, número de teléfono, número de la Seguridad Social, DNI o pasaporte que permitan identificarte, rastrearte o vulnerar tu seguridad. Compartir esta información podría facilitar el robo de identidad, es decir, que alguien se haga pasar por ti para solicitar créditos o préstamos, contratar servicios a tu nombre o cometer fraudes financieros suplantando tu identidad.
2- Imágenes personales
Subir una imagen tuya o de familiares o amigos a ChatGPT puede parecer una acción inofensiva. Sin embargo, si en ella se aprecian claramente los rostros, estarás entregando datos biométricos que podrían ser utilizados para entrenar modelos, generar patrones faciales o alimentar bases de datos sin tu consentimiento. También puedes ser víctima de una suplantación digital o de deepfakes maliciosos mediante la generación de fotos o vídeos falsos, aunque aparentemente muy reales. Estos podrían dañar tu reputación pública, así como exponerte a extorsiones o chantajes bajo amenaza de publicar tus fotos.
3- Datos bancarios
El número de la tarjeta bancaria, el de la cuenta corriente, las claves de acceso, las transferencias o los detalles fiscales son datos muy sensibles que compartidos en una conversación con una IA podrían terminar en manos de ciberdelincuentes. Podrías sufrir cargos no autorizados, perder el control de tus cuentas bancarias y ser víctimas de estafas o phishing dirigidos.
4- Contraseñas
Una IA puede parecer de gran ayuda para generar una contraseña segura; sin embargo, introducir tus claves actuales puede ser una grave imprudencia que ponga en peligro tus cuentas personales y profesionales. Con tus credenciales podrían leer tus correos o mensajes, publicar contenido en tus redes y acceder a tus documentos o fotos personales.
5- Conversaciones privadas
No discutas temas confidenciales con chatbots, ya que estas interacciones pueden ser almacenadas para entrenar modelos futuros. Además, algunos sistemas podrían hacer un uso indebido de tus datos vendiéndolos sin que lo sepas o compartiéndolos con anunciantes o gobiernos.
6- Datos médicos
Resultados de análisis médicos, diagnósticos o síntomas de enfermedades no deberían exponerse en un chatbot, pues estos datos podrían ser almacenados o utilizados para entrenar modelos. La IA nunca ofrecerá diagnósticos reales ni podrá sustituir a un profesional.
Llega ChatGPT-4o, la nueva versión gratuita, más rápida y mejorada del 'chatbot'
7- Información empresarial
Nunca compartas documentos internos, estrategias, nombre de clientes o cualquier otra información confidencial de tu empresa. Al pedirle a la IA que prepare una presentación, podrías estar filtrando datos que pongan en peligro la integridad del negocio, violando las cláusulas de confidencialidad y exponiéndolo a fraudes, espionajes o pérdidas económicas.
Como conclusión, cabe señalar que la IA no es un peligro en sí misma, sino que hay que saber utilizarla con criterio y de forma responsable. Debemos ser conscientes de que cada información que se comparte puede ser procesada, almacenada o reutilizada por las empresas que gestionan esos datos.
No olvides que la información personal y confidencial es poder, y en las manos equivocadas esta puede volverse en tu contra y convertirse en una seria amenaza para ti y tus intereses.
Temas
Más en Berm@tu
-
No, la sangre donada en España y sus derivados no se vende en países extranjeros, es un bulo
-
Vuelve la luz, pero llegan las mentiras, los bulos y las conspiraciones sobre el gran apagón
-
La vacunación global está en peligro por culpa de la desinformación
-
Ballie, el curioso robot doméstico que aspira a ser tu mascota y tu asistente personal