La DeepSeek V3.2, lanzada el pasado 29 de septiembre de 2025, representa un cambio pragmático en la carrera de la Inteligencia Artificial: centrarse en la eficiencia de costes de inferencia más que en el rendimiento bruto, una propuesta crucial para la democratización de los Modelos de Lenguaje Grandes (LLMs). Tras años en el sector de la IA, he visto cómo el coste de las llamadas a la API se convierte en el principal cuello de botella para proyectos escalables. Con esta versión experimental, DeepSeek (DSIC) ataca directamente este problema mediante una innovación arquitectónica que, curiosamente, coincide con un revelador análisis sobre la estrategia de marketing de su gran competidor, OpenAI.
El Nuevo Enfoque en la Eficiencia: DeepSeek V3.2
El modelo DeepSeek V3.2, construido sobre la base de la sólida versión V3.1 Terminus, no busca un salto monumental en los benchmarks de rendimiento, que de hecho se mantienen muy similares (por ejemplo, el MMLU Pro pasa de 80.7 a 79.0). Su verdadera disrupción reside en la reducción del 50% en los precios de inferencia a través de su API y plataforma web. Este recorte es posible gracias a una nueva característica técnica que optimiza drásticamente el manejo de contextos largos, un aspecto cada vez más crítico en aplicaciones empresariales y de agentes de IA.
DeepSeek Sparse Attention (DSA): La Clave del Ahorro
La característica central de la versión 3.2 es la introducción de la DeepSeek Sparse Attention (DSA). En esencia, esta tecnología permite que el modelo, de 68.5 billones de parámetros, se concentre solo en las partes más relevantes del contexto de entrada, ignorando la información redundante, algo vital al manejar ventanas de contexto con gran cantidad de tokens.
La DSA logra una atención dispersa de grano fino con un impacto mínimo en la calidad del resultado. Tradicionalmente, al aumentar el número de tokens en el contexto (documentos largos, historiales de chat), el coste computacional y, por ende, el precio, se disparan exponencialmente. La gráfica de costes de DeepSeek lo muestra claramente: el precio por millón de tokens de la V3.2 (naranja) se mantiene mucho más estable que el de la V3.1 Terminus (azul) a medida que la entrada de datos crece. Esto hace que el modelo sea ideal para casos de uso que requieren cargar grandes cantidades de datos, como la gestión de conocimiento o la búsqueda genética/Agéntica, donde de hecho la V3.2 mostró ligeras mejoras en las pruebas internas.
Disponibilidad y Retirada de la Versión Anterior
El modelo DeepSeek V3.2-exp ya está disponible para su prueba a través de la aplicación, web y API. La decisión de publicar los pesos del modelo en Hugging Face con carácter experimental subraya el compromiso de la compañía con el open-source y la validación comunitaria. No obstante, DeepSeek ha fijado una fecha de caducidad para la comparación: las pruebas comparativas contra la versión V3.1 Terminus a través de la API solo estarán disponibles hasta el 15 de octubre de 2025, marcando un plazo claro para que los desarrolladores validen la eficiencia de costes prometida.

Estrategias de Marketing y la Incógnita de Sora
Mientras DeepSeek se enfoca en la eficiencia silenciosa y técnica, el mundo de la IA también se agita por los movimientos de gigantes como OpenAI. Recientemente, la compañía detrás de ChatGPT lanzó una serie de anuncios publicitarios de alto impacto, lo que llevó a la comunidad a preguntarse: ¿estos videos promocionales fueron creados con Sora, su esperado modelo de texto a video?
Desvelando la Campaña Publicitaria de OpenAI
Tras un análisis detallado, la conclusión fue sorprendente: los anuncios no fueron generados por Sora. Un artículo reveló que los videos fueron una producción tradicional, grabados por la agencia de marketing PhD, y dirigidos por Milles utilizando una película de 35mm.
El hecho de que el presentador planteara la duda y que muchos en la comunidad lo creyeran inicialmente, sugiere una brillante, aunque engañosa, estrategia de marketing. El análisis sugiere que elementos intencionalmente «extraños» en los anuncios (como movimientos ligeramente fuera de lo común, la ausencia de logotipos o una persona sujetando un tenedor de forma peculiar) podrían haber sido introducidos para que pareciera un producto de IA en una etapa temprana, jugando con la inminente expectación del lanzamiento comercial de Sora.
El Verdadero Estado de Sora
Este episodio publicitario no solo resalta la astucia de OpenAI para generar buzz (zumbido), sino que también ofrece una perspectiva realista sobre el verdadero estado de Sora. Se concluye que la versión actual del modelo se encuentra, al parecer, muy por detrás de la calidad de una producción profesional, etiquetada como «calidad BO3», que es la que se esperaría de una herramienta que revolucionara la industria del cine y la publicidad. En este sentido, la estrategia de OpenAI fue más una jugada de pre-marketing basada en la ilusión y la especulación que en la demostración de un producto plenamente funcional.
El lanzamiento de la DeepSeek V3.2-exp es un recordatorio de que la innovación en IA no solo se mide por los mejores puntajes en benchmarks, sino por la sostenibilidad económica que ofrece a los desarrolladores. En el futuro cercano, el modelo de IA que domine será aquel que ofrezca la mejor relación entre calidad y coste de inferencia. En paralelo, la jugada publicitaria de OpenAI con Sora nos recuerda que, en el vertiginoso mundo de la tecnología, a veces la percepción y el hype pueden ser tan poderosos como el código subyacente. Los desarrolladores tienen ahora una oportunidad clara para probar una alternativa de coste ultrabajo con los pesos abiertos disponibles en Hugging Face.
Si quieres probar DeepSeek, simplemente tienes que acceder al siguiente enlace: DEEPSEEK

