10 cosas que nunca debes compartir con un chatbot de IA

La manera en que interactuamos con la tecnología está experimentando una transformación sin precedentes gracias a los chatbots impulsados por inteligencia artificial (IA), como ChatGPT, Google Gemini y otras plataformas similares. Estas herramientas, que hace solo unos años parecían ciencia ficción, hoy forman parte de la vida cotidiana de millones de personas en todo el mundo. Desde redactar correos electrónicos, responder preguntas básicas o ayudar a organizar tareas, hasta brindar compañía o incluso orientación en distintos temas, los chatbots se han convertido en asistentes digitales cada vez más confiables.

Su capacidad para generar respuestas que imitan la comunicación humana produce una sensación de cercanía y hasta de confianza. No obstante, expertos en ciberseguridad y privacidad advierten que esa confianza puede ser engañosa. A diferencia de una conversación con otra persona, lo que compartimos con la IA no siempre se queda en el ámbito privado: los datos pueden almacenarse, analizarse, usarse con fines distintos a los previstos, e incluso ser publicados o manipulados.

En este contexto, es crucial saber qué información nunca debe compartirse con un chatbot. A continuación, te presentamos una guía con 10 cosas que debes evitar revelar para proteger tu privacidad, tu seguridad y tu identidad digital.


1. Información personal

Compartir datos como tu nombre completo, dirección de domicilio, número telefónico o dirección de correo electrónico puede parecer inofensivo si se hace de forma aislada. Sin embargo, cuando se combinan distintos fragmentos de información, estos pueden ser utilizados para rastrear tu identidad en línea.

Los ciberdelincuentes se valen de este tipo de detalles para realizar fraudes de suplantación, intentos de phishing o seguimiento no autorizado. Una simple conversación con un chatbot puede convertirse en la puerta de entrada a ataques más complejos si proporcionas información personal sensible.


2. Detalles financieros

Nunca ingreses en un chatbot datos relacionados con tus cuentas bancarias, tarjetas de crédito o números de identificación gubernamentales (como el número de la seguridad social en EE. UU. o el RUT en Chile). Este tipo de información es especialmente valiosa para estafadores y constituye la base para cometer fraudes financieros.

Aunque algunos chatbots cuentan con medidas de seguridad, no son canales oficiales ni seguros para realizar operaciones bancarias. Lo más recomendable es limitar el uso de estas plataformas a consultas generales y nunca confiarles tus finanzas personales.


3. Contraseñas

Otro error común es usar la IA como recordatorio de contraseñas o escribir claves de acceso en un chat para “guardarlas”. Esto representa un riesgo enorme. Tus contraseñas deben estar siempre en gestores seguros diseñados específicamente para proteger credenciales.

Compartir contraseñas con un chatbot abre la posibilidad de que sean almacenadas en registros internos, y en caso de una filtración de datos, podrían quedar expuestas. La regla de oro es clara: nunca compartas logins ni claves privadas con un asistente de IA.


4. Secretos o confesiones personales

Algunas personas recurren a los chatbots como si fueran confidentes virtuales, llegando a compartir experiencias íntimas, problemas emocionales o secretos delicados. Aunque la IA pueda ofrecer respuestas empáticas, no es un terapeuta ni un consejero profesional.

Todo lo que digas puede quedar almacenado y, en un mal escenario, explotado o divulgado. Las confesiones más personales deben quedar en el ámbito de la confianza humana, no en archivos digitales.


5. Información médica o de salud

Los chatbots pueden ofrecer información general sobre temas de salud, pero no son médicos certificados. Proporcionar historiales médicos, recetas, resultados de exámenes o números de seguro de salud supone un riesgo innecesario.

La información médica es considerada de alta sensibilidad. Si se filtrara, podría usarse en tu contra, por ejemplo, en procesos laborales, de seguros o incluso en intentos de extorsión. Para cualquier preocupación relacionada con tu salud, lo recomendable siempre será consultar con un profesional autorizado.


6. Contenido explícito o inapropiado

Otra práctica peligrosa es compartir material explícito, abusivo o ilegal en plataformas de IA. Muchas de ellas monitorean de manera automatizada las conversaciones para cumplir con políticas de uso, y ese tipo de contenido puede quedar registrado.

Además, compartir información de esta índole puede derivar en la suspensión de tu cuenta o, en el peor de los casos, en repercusiones legales. La IA no es un espacio seguro ni anónimo para difundir este tipo de material.


7. Datos confidenciales de trabajo

Cada vez más empresas emiten advertencias a sus empleados para que no ingresen información interna, informes estratégicos o secretos corporativos en herramientas de IA. Algunos sistemas utilizan los datos que reciben para mejorar sus modelos, lo que puede resultar en fugas de información sensible.

Imagina el riesgo de que planes de negocios, contratos o proyectos inéditos terminen siendo parte de una base de datos externa sin tu consentimiento. Por ello, la regla es clara: lo que pertenece a la empresa, no debe compartirse con un chatbot.


8. Información legal

Los asistentes de IA no son abogados ni ofrecen asesoría legal certificada. Ingresar datos relacionados con juicios, contratos, demandas o disputas legales puede exponer tu privacidad y comprometer procesos delicados.

En estos casos, lo recomendable es acudir únicamente a profesionales calificados. La información legal debe manejarse bajo estricta confidencialidad, no en plataformas que pueden registrar y procesar lo que escribes.


9. Imágenes o documentos sensibles

Nunca subas a un chatbot copias de documentos como pasaportes, licencias de conducir, identificaciones nacionales o fotografías privadas. Aunque elimines esos archivos, las huellas digitales pueden permanecer en servidores, aumentando el riesgo de robo de identidad o fraude.

Los documentos sensibles deben resguardarse en sistemas cifrados y nunca compartirse en espacios de conversación con IA.


10. Todo aquello que no quieras que sea público

Finalmente, la norma más sencilla y poderosa: si no deseas que algo termine publicado en internet, no lo compartas con la IA. Incluso comentarios aparentemente inofensivos pueden almacenarse y reaparecer más adelante en contextos inesperados.

La clave está en recordar que los chatbots no son diarios íntimos ni espacios confidenciales. Trátalos como lo que son: herramientas útiles, pero con límites claros.


Los chatbots de inteligencia artificial son tecnologías poderosas que facilitan la vida y expanden nuestras capacidades digitales. Sin embargo, no debemos confundir su eficiencia con seguridad absoluta. Al interactuar con estas herramientas, nuestra privacidad y protección de datos personales dependen en gran medida de cómo las utilizamos.

La prudencia es la mejor defensa en la era digital. Antes de escribir, pregúntate: ¿estaría cómodo si esta información terminara en manos ajenas o publicada en internet? Si la respuesta es no, entonces no la compartas.

En un mundo donde la IA avanza a pasos agigantados, el sentido común, la cautela y la educación digital se convierten en aliados indispensables. Recordemos que, en última instancia, la responsabilidad de proteger nuestra información recae en nosotros mismos.