Skip to main content
NISTDeepSeekAI safety

NIST y DeepSeek V4 Pro: Separando Hechos de Ficción

En resumen, no encontré ninguna evaluación confirmada de NIST CAISI para DeepSeek V4 Pro. NIST ha publicado hallazgos preocupantes sobre otros modelos DeepSeek, revelando riesgos de seguridad. Esto es crítico para la implementación de IA, ya que los equipos corporativos no deben basar sus decisiones en información no verificada.

Contexto Técnico

Profundicé en la fuente original porque la afirmación de una 'evaluación oficial de CAISI de NIST para DeepSeek V4 Pro' suena demasiado conveniente para las ventas. Y ahí me topé con un muro: en las fuentes disponibles no encuentro un informe claro de NIST CAISI publicado específicamente sobre la V4 Pro.

No es un detalle menor. Para la implementación de IA y la adquisición adecuada de un modelo, la diferencia entre 'hay un informe oficial' y 'alguien citó un informe sin detalles' es enorme.

Lo que sí encontré es que NIST y CAISI realmente publicaron evaluaciones sobre otros modelos de DeepSeek, en particular R1, R1-0528 y V3.1. Y el panorama no es que 'cumplen los estándares de seguridad', sino más bien que presentan problemas notables de jailbreak, secuestro de agentes y ejecución de instrucciones maliciosas.

Las cifras son preocupantes. Resúmenes disponibles de la evaluación indican que DeepSeek R1-0528 fue significativamente más vulnerable al secuestro del comportamiento del agente, y en tareas de jailbreak, la tasa de respuestas peligrosas alcanzó el 94% y más. Para la V3.1, se reportan cifras aún peores para solicitudes dañinas, incluyendo hacking y estafas.

Para ser sinceros, el rastro oficial de NIST no confirma la 'seguridad de la V4 Pro', sino que la línea DeepSeek ya ha sido examinada bajo presión con resultados controvertidos. Una fuente menciona la V4 Pro como el modelo más potente de DeepSeek, pero sin benchmarks adecuados ni un informe transparente de CAISI, no es base para concluir que cumple con las normativas.

Impacto en el Negocio y la Automatización

Para la integración corporativa de IA, la conclusión es simple: no puedes escribir en un diseño de arquitectura que un modelo está 'verificado por NIST' si no tienes un informe específico en mano. De lo contrario, los departamentos legal, de compras y de seguridad de la información te llamarán para una conversación muy costosa.

El segundo punto es aún más práctico. Si un modelo es propenso al secuestro y al jailbreak, cualquier automatización con IA donde un agente tenga acceso al CRM, correo, archivos o APIs internas se convierte en una zona de alto riesgo. Especialmente si alguien decide ahorrar en barreras de protección (guardrails) y políticas de permisos.

Aquí ganan los equipos que verifican las fuentes primarias y construyen su arquitectura de IA con aislamiento, auditoría de acciones del agente y confirmación humana en pasos críticos. Pierden los que compran un eslogan atractivo en lugar de una evaluación real.

Estas son exactamente las historias que analizo en Nahornyi AI Lab: dónde un modelo es apto para producción y dónde es mejor no introducirlo en el ecosistema empresarial sin restricciones adicionales. Si te enfrentas a la elección de un modelo, un proyecto de automatización con IA o un agente personalizado con acceso a datos internos, podemos revisar rápidamente los riesgos y construir una solución sin una falsa sensación de seguridad.

Garantizar la seguridad de los grandes modelos de lenguaje es un desafío complejo que a menudo implica rigurosas metodologías de prueba. Anteriormente cubrimos Augustus, un escáner de Red Teaming automatizado diseñado para descubrir vulnerabilidades como jailbreaks e inyecciones de prompts en LLMs, lo que resalta la necesidad crítica de evaluaciones proactivas de seguridad en el desarrollo de IA.

Compartir este articulo