El uso de asistentes de inteligencia artificial, como ChatGPT, se ha integrado a la vida cotidiana para tareas que van desde la resolución de dudas hasta la redacción de textos. Sin embargo, expertos en seguridad digital y protección de datos destacan la importancia de establecer límites en su uso para salvaguardar la privacidad y evitar riesgos legales o de seguridad.

Los especialistas subrayan que, si bien estas herramientas son útiles, no sustituyen el criterio de un experto profesional ni garantizan la confidencialidad absoluta de la información que reciben. Por ello, recomiendan evitar categóricamente dos tipos de interacciones: realizar consultas que promuevan actividades ilícitas y compartir información personal sensible.

Entre las consultas que se deben evitar se incluyen solicitudes para cometer fraudes, estafas o actividades de hacking; preguntas destinadas a obtener datos personales de terceros sin su consentimiento; generación de contenido que fomente la violencia, odio o discriminación; instrucciones para la fabricación de armas, explosivos o sustancias prohibidas; y asesoría para evadir obligaciones legales, fiscales o autoridades. Este tipo de peticiones no solo son rechazadas por los sistemas, sino que pueden activar protocolos de revisión de seguridad.

De igual forma, se recomienda nunca compartir con el asistente información personal confidencial. Esto incluye, pero no se limita a: números de documentos oficiales (INE, CURP, pasaporte); dirección física exacta del domicilio, trabajo o centro de estudios; datos bancarios completos, códigos de seguridad (CVV) o contraseñas; historiales médicos detallados o diagnósticos específicos; y combinaciones de fecha de nacimiento completa con nombre y ciudad, que podrían utilizarse para suplantación de identidad.

Los expertos advierten que, incluso sin intención maliciosa, proporcionar estos datos en plataformas de IA puede facilitar ataques de phishing, extorsión o robo de identidad, ya que la información puede ser almacenada o potencialmente interceptada. La recomendación central es utilizar estas herramientas con conciencia, reservando los datos verdaderamente sensibles para interacciones seguras y verificadas con instituciones o profesionales pertinentes.