abril 2, 2026
Tecnología

¿Qué sucede cuando nuestras conversaciones con chatbots de IA quedan expuestas? – Reporte Tico

  • marzo 10, 2026
  • 0

San José, 10 de marzo (elmundo.cr) – Interactuar con chatbots (ChatGPT, Gemini, Copilot, Claude, Perplexity, entre otros) es cada vez más visto como un espacio íntimo y seguro.

¿Qué sucede cuando nuestras conversaciones con chatbots de IA quedan expuestas?

 – Reporte Tico

San José, 10 de marzo (elmundo.cr) – Interactuar con chatbots (ChatGPT, Gemini, Copilot, Claude, Perplexity, entre otros) es cada vez más visto como un espacio íntimo y seguro. Se le confiarán asuntos emocionales, psicológicos, profesionales y médicos. ESETuna empresa líder en detección proactiva de amenazas, analiza qué tipo de información se comparte normalmente con los chatbots de IA, cómo podría divulgarse y cuál podría ser el impacto real de una infracción. Además, comparten buenas prácticas digitales para seguir utilizando estas herramientas sin ponerte en riesgo.

«No es nuevo que muchas personas utilicen los chatbots como si fueran salas privadas. Usarlos de esta manera contradice la naturaleza de este tipo de herramientas, ya que las propias plataformas enfatizan que las conversaciones pueden hacerlo». almacenado, analizado o controlado para mejorar el servicio. Los chatbots no estaban destinados a ser un lugar confidencialexcepto que la experiencia conversacional nos invita a pensar en ellos de esta manera. Si bien las principales plataformas de IA afirman aplicar Medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), no elimina el riesgo de filtraciones de datos ni equivale a invulnerabilidad”, enfatiza Martina López, investigadora de seguridad informática de ESET Latinoamérica.

Cuando se utiliza como asistente personal o incluso como consultor, a menudo se comparte mucha información personal y sensible casi sin darnos cuenta. A saber:

  • Datos personales. Información sensible como nombre, edad, ciudad y país, pero también hábitos cotidianos: dónde trabaja, con quién vive y cómo es su familia. Esta información puede ser peligrosa en combinación y en las manos equivocadas.
  • Información laboral. Con la necesidad de “Ayúdame a mejorar esto”, muchos usuarios comparten correos electrónicos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, datos de clientes, proveedores, conversaciones y tickets. También código fuente y arquitecturas internas.
  • Consultas médicas, psicológicas o emocionales. Mucha gente también ve a los chatbots como consultores o especialistas (Práctica que puede ser peligrosa). Se comparten temas de salud como síntomas, diagnósticos y medicamentos, pero también temas personales como conflictos de pareja, duelo, preguntas que no se harían en otra red social o solicitudes de consejo.
  • Opiniones, creencias y posiciones sensibles. Los chatbots reciben opiniones de los usuarios relacionadas con ideología política o religiosa, posiciones sobre empresas, superiores o compañeros, así como información que, fuera de contexto, puede causar daño reputacional.

«El problema no es lo que se comparte, sino la falsa sensación de intimidad y privacidad que puede romperse muy fácilmente. Meses de conversaciones crean un perfil que puede tener un valor muy alto para un ciberatacante». agrega López de ESET.

La información compartida con chatbots de IA puede quedar expuesta y caer en manos de ciberdelincuentes por diversas razones. Lo más importante es si alguien inicia sesión en la cuenta, Esto puede suceder si acceden a la contraseña y ésta entra en uno. Ataque de phishing o cuando se utiliza la misma clave en múltiples servicios. Otra razón es esta Chatbots manipulados que pueden ser inducidos por solicitudes maliciosas de delitos cibernéticos para obtener información de los usuarios. Por otra parte, eso es Acepta los Términos y Condiciones sin leerlosen vista de esto Los chatbots recopilan y almacenan información de uso, como historial y conversaciones. para entrenar tu modelo de lenguaje por defecto. También hay que tener algunos en cuenta. Brecha de seguridad, un error de la plataforma Esto deja expuestas las conversaciones y el historial de sus usuarios, o si un La extensión o aplicación parece más de lo necesarioSi quizás se instala un complemento para hacer que el chatbot sea más potente y esa aplicación no funciona, es vulnerable o maliciosa, la conversación puede salir del control del proveedor principal.

Según ESET, los cinco riesgos notables a los que estás expuesto ante una fuga de chatbot son:

  1. Robo de identidad/Ingeniería social: Las conversaciones con chatbots proporcionan un contexto humano. Esto le da al ciberatacante información sobre hábitos, intereses, rutinas, servicios utilizados, otros problemas e incluso el tono de voz al hablar. Esto le permite crear ataques mucho más personalizadosa través de correos electrónicos o mensajes que parecen haber sido escritos por alguien cercano, mediante fraudes que contienen datos reales, o mediante suplantación de identidad, mucho más difícil de detectar.
  2. Espionaje corporativo: Dado que muchos usuarios utilizan chatbots para respaldar el trabajo, existe la oportunidad para que los atacantes obtengan información confidencial como estrategias, documentos, decisiones internas, información de clientes, precios y/o detalles de productos. Además de los riesgos legales que esta situación pueda conllevar, también puede representar una ventaja competitiva para terceros o el incumplimiento de determinadas obligaciones contractuales.
  3. Daño a la reputación: Cuando se revelan opiniones privadas, dudas profesionales o pensamientos íntimos, las consecuencias pueden ir desde conflictos laborales hasta la pérdida de credibilidad profesional.
  4. Divulgación de datos sensibles: Este tipo de chatbots también se utilizan como espacio para consultas confidenciales y suelen contener información personal como síntomas, diagnósticos, tratamientos, creencias religiosas o políticas, conflictos personales o familiares. Si esto se hace público, podría tener consecuencias devastadoras para la víctima: estigma, discriminación e incluso dolor emocional.
  5. Chantaje: Si el ciberatacante tiene información privada, puede ejercer presión mediante amenazas creíbles y chantaje personalizado. ¿El objetivo? Obtener una compensación económica de la víctima.

Una buena forma de reducir el impacto de la exposición conversacional es adoptar las mejores prácticas al interactuar con estos chatbots. El equipo de ESET comparte esta lista de verificación:

  • No compartas información personal (DNI, fecha de nacimiento, correo electrónico, teléfono).
  • Anonimizar casos reales (cambiar nombres, empresas, ubicaciones)
  • No adjunte documentos sensibles, información confidencial o credenciales
  • Verifique la configuración de privacidad (qué se guarda, qué se usa para la capacitación)
  • Proteja su cuenta con una contraseña segura y autenticación de dos factores
  • Utilice diferentes cuentas para fines comerciales y personales.
  • Piénselo: ¿diría eso en voz alta en una habitación llena de extraños?

«La comodidad de una conversación fluida, natural y libre de juicios nos permite estar menos atentos y compartir información que nunca publicaríamos en otro espacio digital. Una filtración de conversaciones expone no sólo información, sino también rutinas, vulnerabilidades, decisiones y emociones. Ahora bien, este escenario debe entenderse como una invitación a comprender qué son y qué no son. No son espacios confidenciales, ni asesores personales, ni bóvedas de información sensible. Son herramientas poderosas, pero como toda tecnología, requieren de Juicio, Límites y hábitos digitales responsables”. concluye el investigador de ESET.