Las 6 cosas que nunca deberías compartir con ChatGPT
- Ambito Tucumano
- 30 jul
- 2 Min. de lectura
Hay datos sensibles que no deben usarse para evitar riesgos de privacidad. Cualquier cosa compartida en el pasado con el programa puede ser extremadamente difícil de eliminar.

En una era donde los chatbots como ChatGPT se integran más en nuestra vida diaria, expertos advierten sobre los riesgos de compartir información sensible. Aquí seis tipos de datos que no deberías revelar jamás a IA como ChatGPT:
Información personal identificable (PII): Incluye nombre completo, dirección, número de documento o fecha de nacimiento. Compartir esta información puede facilitar robo de identidad y exposición en caso de filtraciones.
Datos financieros y bancarios: Nunca ingreses números de cuenta, tarjetas, claves de acceso o información confidencial sobre inversiones. Podrían ser explotados por ciberdelincuentes.
Contraseñas y datos de acceso: No compartas credenciales, contraseñas o códigos 2FA. Un chatbot podría retener o procesar esta información de forma insegura.
Información sensible de la empresa: No reveles secretos comerciales, planes internos, código fuente o clientes. Empresas como Samsung y Apple lo restringieron para evitar fugas corporativas.
Obras creativas con derechos reservados o propiedad intelectual: Compartir borradores, guiones, escritos originales o diseños puede arriesgar su protección y permitir su uso indebido.
Datos médicos o personales sensibles: Resultados de análisis, diagnósticos, tratamientos recibidos, o detalles íntimos no están protegidos bajo normativas como HIPAA y podrían ser expuestos.
Por qué es clave tener precaución
OpenAI no cubre tus chats con confidencialidad profesional como en casos médicos, terapéuticos o legales. Los datos pueden ser almacenados o incluso requeridos legalmente. Las conversaciones pueden usarse para entrenamiento de modelos, aunque puedes desactivar esa opción, no están garantizadas como privadas de forma indefinida.
Existieron brechas de seguridad, como filtraciones de algunos datos de usuarios vía bug, lo que evidencia que la infraestructura puede ser vulnerable.
¿Cómo usar ChatGPT de manera más segura?
Activa el modo incógnito o chats temporales cuando necesites privacidad.
Elimina conversaciones sensibles tras su uso. Aunque ten en cuenta que OpenAI puede retener algunas por hasta 30 días.
Desactiva la contribución al entrenamiento si no quieres que tus inputs mejoren futuros modelos.
Trata a la IA como si fuera público: si no lo compartirías en redes sociales, no lo escribas en la plataforma.
En definitiva, puedes aprovechar estas herramientas para lo que fueron diseñadas: apoyo, productividad e información general. Pero al mismo tiempo, es esencial cuidar tu privacidad personal, financiera y profesional.









Comentarios