DeepSeek y ChatGPT son dos plataformas avanzadas de inteligencia artificial (IA) con enfoques diferentes y muy útiles para diversas situaciones. Sin embargo, muchos usuarios se preguntan cuál de las dos es hoy la más segura.
DeepSeek, una IA de código abierto originaria de China, destaca por su eficiencia y personalización en tareas técnicas y matemáticas, pero ha enfrentado críticas por vulnerabilidades de ciberseguridad y dudas sobre la privacidad de datos.
Por otro lado, ChatGPT, desarrollado por OpenAI en Estados Unidos, es reconocido por su versatilidad, cumplimiento de normativas de privacidad y enfoque robusto en protección de datos, aunque es un sistema cerrado y de acceso freemium.
Seguridad en IA: DeepSeek vs. ChatGPT
DeepSeek ha sufrido ciberataques que revelaron fallas estructurales en su seguridad, evidenciando la facilidad con que su sistema puede ser manipulado para generar contenido malicioso, lo que representa un riesgo para la prevención de actividades ilícitas. Esto resalta la importancia de implementar seguridad desde el diseño y una gestión rigurosa de riesgos, especialmente para plataformas de código abierto que permiten modificaciones comunitarias.
En cuanto a la privacidad, DeepSeek genera inquietudes sobre el manejo y posible acceso gubernamental chino a los datos recopilados.
DeepSeek, una IA de origen chino que se plantea como serio rival para ChatGPT.
En contrapartida, ChatGPT promete una infraestructura más consolidada en la gestión de datos, ajustándose a normativas como el RGPD europeo, requisito crucial para muchas organizaciones y usuarios preocupados por la protección de su información personal.
Sin embargo, en las últimas semanas, ChatGPT estuvo en el centro de un escándalo debido a que se descubrió que conversaciones compartidas por los usuarios aparecían indexadas y con libre acceso en el buscador Google.
La naturaleza de código abierto de DeepSeek otorga ventajas para la innovación y reducción de costos, permitiendo personalizaciones profundas y uso gratuito, pero también implica mayores desafíos para garantizar una seguridad sólida ante ataques y manipulaciones.
ChatGPT, aunque menos flexible en este sentido, mantiene una moderación más estricta y comprometida con la privacidad, lo que puede ser preferible para entornos empresariales o usuarios con requerimientos de cumplimiento normativo más exigentes.
Expertos en ciberseguridad advierten que el avance de estas IA puede tanto potenciar la defensa contra ciberataques como facilitar nuevas formas de ingeniería social y generación de código malicioso automatizado, lo que impone la necesidad de un equilibrio ético y técnico al implementar estas tecnologías.
Éxito total: ChatGPT ya recibe 2.500 millones de consultas al día.
En resumen, la elección entre DeepSeek y ChatGPT en términos de seguridad dependerá del contexto de uso, prioridades sobre código abierto y personalización versus privacidad y cumplimiento regulatorio. Ambas plataformas están en constante evolución, y la seguridad seguirá siendo un pilar fundamental en su desarrollo y adopción global.
Cómo proteger la privacidad al usar inteligencia artificial
Más allá del modelo de inteligencia artificial que se utilice, existen recomendaciones generales para resguardar la privacidad:
- Evitar compartir información personal y sensible: No ingreses datos como contraseñas, información financiera, historial médico o detalles confidenciales en chats o plataformas de IA, ya que pueden ser almacenados o usados para entrenar modelos futuros, aumentando el riesgo de exposición.
- Configurar correctamente la privacidad: revisar y adaptar las configuraciones de privacidad en cada herramienta de IA que uses, incluyendo la opción de desactivar el historial de conversaciones cuando esté disponible, para minimizar el almacenamiento de datos personales.
- Proteger tus cuentas con contraseñas robustas: utilizar contraseñas seguras y únicas para cada servicio y activa la autenticación de dos factores (2FA) para añadir una capa extra de protección ante accesos no autorizados.
- No confiar ciegamente en las respuestas: verificar la información crítica con fuentes oficiales, porque las IA pueden generar respuestas incorrectas o manipuladas por atacantes a través de técnicas como la inyección de comandos (prompt injection).
- Ser cauteloso con enlaces y archivos generados: antes de hacer clic o descargar cualquier archivo, verificar que no contengan malware ni redireccionen a sitios falsos, ya que las IA pueden ser manipuladas para generar contenido malicioso.
- Mantener actualizados los dispositivos y aplicaciones: aplicar siempre los últimos parches de seguridad y usa herramientas adicionales de privacidad, como bloqueadores de rastreo, para fortalecer la protección de tu información personal.
Adoptar estos hábitos ayuda a proteger tu privacidad y a usar la inteligencia artificial de forma más segura y responsable.