ESET advierte qué datos se deben evitar al interactuar con ChatGPT
ESET advierte qué datos se deben evitar al interactuar con ChatGPT y a qué tipo de respuestas se debe prestar atención para utilizar la herramienta de forma segura y responsable.
Centroamérica, 31 de mayo de 2025.– Chatear con una inteligencia artificial puede parecer una experiencia mágica y revolucionaria, ya que la tecnología que hay detrás de ChatGPT responde con rapidez, entiende contextos complejos e incluso escribe textos enteros. Sin embargo, mucha gente olvida que la IA no tiene conciencia, sentimientos ni opiniones propias. En este contexto, ESET, compañía líder en detección proactiva de amenazas, advierte que hay ciertos tipos de preguntas que pueden dar respuestas inexactas, inapropiadas o incluso peligrosas. El equipo de especialistas comenta que saber qué no preguntar a una IA no es solo una cuestión de etiqueta digital, sino también una forma de utilizar esta poderosa herramienta de manera más eficaz. Más al considerar que según encuestas, las preguntas más comúnmente utilizadas con las IA son sobre temas personales relevantes: ¿Cómo puedo mejorar mi salud mental? ¿Qué método es más efectivo para perder peso? ¿Cómo puedo empezar un negocio exitoso? “Al hablar de seguridad y privacidad, hay información que se debe evitar incluir al realizar consultas en ChatGPT. Por defecto, ChatGPT utiliza la información que se le proporciona para entrenar su modelo, a menos que se modifique esta configuración o se utilicen chats temporales. Si un ciberdelincuente consigue acceder a una cuenta de ChatGPT, tendrá acceso a toda la información que se comparta con la herramienta, incluidos los datos sensibles que se hayan introducido en las conversaciones”, comenta Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de ESET Latinoamérica. Estas son, según ESET, algunas de las principales preguntas que no deberías hacer a ChatGPT y el por qué:- Preguntas relacionadas con información confidencial o sensible: En el mundo de la ciberseguridad, la regla es clara: nunca compartir datos personales, bancarios, contraseñas o cualquier tipo de información sensible en conversaciones con una inteligencia artificial. A pesar de parecer una interacción privada, las herramientas de IA desde ESET destacan que no son entornos cifrados o seguros para compartir datos sensibles.
- Preguntas relacionadas con datos confidenciales o de propiedad de la empresa: Los empleados que utilicen IA deben ser extremadamente cuidadosos cuando traten con datos corporativos confidenciales. Nunca compartir informes financieros, estrategias empresariales, información sobre clientes o proyectos confidenciales con estas plataformas. Esto se debe a que la IA puede no distinguir automáticamente entre datos públicos y privados, lo que supone un riesgo significativo para la seguridad e integridad de la información corporativa.
- Preguntas que buscan un asesoramiento médico, legal o financiero definitivo: Además de las cuestiones de seguridad y privacidad relacionadas con el uso de ChatGPT, también es importante destacar aspectos relacionados con la veracidad de la información y el uso responsable de la información proporcionada por ChatGPT.
- Preguntas que requieren opiniones, preferencias o sentimientos humanos: Aunque la IA utiliza un lenguaje natural y amigable, no tiene conciencia, emociones u opiniones reales. Las respuestas que proporciona se basan en algoritmos lingüísticos y patrones de datos, sin ninguna experiencia emocional ni juicio personal. Esto significa que cuando se le pregunta «¿Qué harías?» o «¿Te gusto?», la respuesta que se recibirá será una simulación de una interacción humana, pero sin la verdadera intención o sentimiento que hay detrás.
- Preguntas sobre decisiones personales importantes: La IA puede ser muy útil para organizar ideas y proporcionar información objetiva, pero no debe ser la única base para tomar decisiones fundamentales sobre la vida personal, la carrera o el propio bienestar. Tomar decisiones cruciales, como un cambio de carrera profesional, cuestiones de salud mental o elecciones familiares, requiere un análisis más profundo, que tenga en cuenta no solo los datos y la lógica, sino también los aspectos emocionales y subjetivos. Es posible que la IA no comprenda el contexto completo de las emociones y circunstancias.
