
Eset, empresa de ciberseguridad, advierte qué datos evitar al usar inteligencia artificial y cómo aprovecharla sin poner en riesgo tu privacidad
Honduras.
Chatear con una inteligencia artificial como ChatGPT puede parecer una experiencia mágica y revolucionaria. La herramienta responde con rapidez, interpreta contextos complejos y hasta redacta textos enteros. Sin embargo, muchas personas olvidan que esta tecnología no tiene conciencia, sentimientos ni opiniones reales.
En este contexto, Eset, compañía especializada en ciberseguridad, advierte sobre el tipo de preguntas que se deben evitar al interactuar con herramientas como ChatGPT, para utilizarlas de forma segura, responsable y eficaz.
Según Camilo Gutiérrez Amaya, jefe del Laboratorio de Investigación de Eset Latinoamérica, “al hablar de seguridad y privacidad, hay información que no se debe compartir con la IA. Por defecto, ChatGPT puede usar los datos ingresados para entrenar su modelo, salvo que se configure de otra manera o se usen chats temporales”.

1 . No compartas datos personales o sensibles
Nunca ingreses información como nombres completos, direcciones, números de cuenta, contraseñas o cualquier tipo de dato confidencial. Aunque parezca una conversación privada, las plataformas de IA no son entornos cifrados ni garantizan privacidad total.
Eset advierte que ciberdelincuentes ya están traficando con cuentas de ChatGPT robadas en la dark web, lo que demuestra el valor que tienen estos datos si se almacenan de forma insegura.
2. Evita preguntas sobre información corporativa
Los empleados deben tener precaución al interactuar con IA si manejan datos confidenciales de sus empresas. No compartas informes financieros, planes estratégicos, datos de clientes o proyectos internos.
Las IAs no diferencian entre lo público y lo privado, y su uso sin autorización puede violar políticas internas de seguridad. Para tratar temas empresariales, es preferible utilizar plataformas validadas por tu organización.
3. No busques diagnósticos médicos, legales o financieros
ChatGPT puede ofrecer explicaciones generales, pero no sustituye a un médico, abogado o asesor financiero. Usar sus respuestas para tomar decisiones importantes puede llevar a errores graves, especialmente si falta contexto.
Ejemplo: buscar un diagnóstico médico puede dar lugar a interpretaciones equivocadas, igual que sucede al consultar síntomas en internet.
4. No esperes emociones o juicios personales
Aunque la IA usa lenguaje natural y puede parecer empática, no siente ni opina. Sus respuestas están basadas en patrones de datos, no en experiencias reales.
Preguntar “¿Qué harías tú?” o “¿Te gustó?” puede generar una respuesta convincente, pero no es más que una simulación. Para apoyo emocional o consejos genuinos, es mejor hablar con una persona real.
5. No delegues decisiones personales importantes
ChatGPT puede ayudarte a ordenar ideas, pero no debe ser tu única guía para decisiones cruciales, como cambiar de carrera, enfrentar un problema familiar o tratar un tema de salud mental.
Estas decisiones implican factores emocionales, sociales y contextuales que una IA no puede interpretar. Busca orientación en profesionales o personas de confianza que conozcan tu realidad.
Cómo usar la IA de forma segura y responsable
Eset recuerda que la clave está en entender qué preguntas no hacer y cómo aprovechar la inteligencia artificial como herramienta complementaria, no como fuente absoluta de verdad.
“Comprender los riesgos ayuda a preservar la privacidad, evitar errores y proteger datos sensibles. Así se puede aprovechar todo el potencial de ChatGPT sin poner en riesgo tu seguridad ni la de los demás”, concluye Gutiérrez Amaya.

Consejos rápidos
Usa chats temporales si quieres privacidad.
Nunca compartas información que no darías en un sitio público.
Consulta siempre a profesionales para temas delicados.
Configura las opciones de privacidad en la plataforma que uses.
Usa IA como apoyo, no como reemplazo.