Qwen3-Next, el modelo de IA que desafía en precio a los gigantes
Inicio » Blog » Qwen3-Next, el modelo de IA que desafía en precio a los gigantes

Qwen3-Next ha sacudido el mundo de la inteligencia artificial con una propuesta audaz: un modelo de lenguaje que ofrece un rendimiento comparable al de sus competidores más grandes y costosos, pero con una fracción del gasto. Esta novedad, presentada por Alibaba Cloud en la primera semana de septiembre de 2025, no solo es una hazaña tecnológica, sino que también marca un posible cambio de rumbo en la industria de la IA generativa, donde hasta ahora, el tamaño y el costo eran sinónimos de potencia.

En un sector que ha visto inversiones astronómicas en el entrenamiento de modelos, la eficiencia se ha convertido en la nueva frontera. El AI Index Report de Stanford (2024), una referencia indiscutible, estimó que el entrenamiento de GPT-4 costó 78 millones de dólares, mientras que Gemini Ultra de Google alcanzó los 191 millones. En este contexto, la familia de modelos Qwen3-Next, cuyo costo de entrenamiento se estima en tan solo 500.000 dólares, representa una disrupción total. La pregunta que todos nos hacemos es: ¿cómo Alibaba ha logrado esta proeza sin sacrificar la calidad?

Un cambio de paradigma: Más eficiente, no más grande

La lógica de la IA generativa ha sido durante mucho tiempo «más grande es mejor». Un mayor número de parámetros solía traducirse en una mejor comprensión y capacidad de generación. Sin embargo, Qwen3-Next rompe con esta regla. La clave de su eficiencia radica en su diseño técnico, que se aleja de la fuerza bruta para abrazar la inteligencia en la arquitectura. No se trata solo de reducir el tamaño, sino de optimizar cada componente para que trabaje de manera más inteligente.

Una de las principales innovaciones es el uso de una arquitectura Mixture of Experts (MoE), pero con un enfoque particularmente refinado. En lugar de tener un solo modelo masivo, Qwen3-Next se divide en 512 «expertos» o sub-modelos especializados en diferentes tareas o tipos de datos. Lo genial es que, en un momento dado, solo 10 de estos expertos se activan por token, concentrando la potencia de cómputo donde realmente se necesita y apagando el resto. Esta activación selectiva es el secreto detrás del ahorro masivo en los costos de inferencia y entrenamiento.

El arte de la optimización: MoE y Gated DeltaNet

El uso de Mixture of Experts (MoE) no es nuevo, pero la implementación de Alibaba es excepcionalmente eficiente. Mientras que otros modelos como DeepSeek-V3 utilizan 256 expertos o Kimi-K2 llega a 384, Qwen3-Next-80B-A3B los supera en cantidad pero los activa de forma más selectiva. Esto se traduce en una reducción drástica de la carga de cómputo. El resultado es un modelo que, a pesar de ser hasta trece veces más pequeño que su antecesor de la semana anterior, Qwen3-235B-A22B-Thinking-2507, se acerca a su rendimiento en tareas críticas. Este enfoque de «menos es más» ha permitido a Alibaba reducir el costo de entrenamiento en un 90% frente a su predecesor directo, Qwen3-32B, lanzado en abril de 2025.

Además de la arquitectura MoE, el modelo integra Gated DeltaNet, una técnica de atención híbrida que filtra la información irrelevante, asegurando que el modelo se concentre en lo que realmente importa para la tarea. Esta combinación de diseño inteligente no solo optimiza el tamaño del modelo, sino que también lo hace diez veces más rápido que Qwen3-32B. Para los usuarios finales, esto se traduce en respuestas más rápidas y una menor latencia, lo cual es crucial para aplicaciones en tiempo real.

¿Un futuro de modelos más pequeños y eficientes?

La tendencia hacia modelos de lenguaje más pequeños y específicos no es exclusiva de Alibaba. Otras grandes compañías como Tencent, que presentó modelos con menos de 7.000 millones de parámetros el mes pasado, y startups como Z.ai, con su GLM-4.5 Air de 12.000 millones de parámetros, están siguiendo un camino similar. Estos movimientos indican un claro shift en la industria: se está pasando de una carrera por el tamaño a una por la eficiencia y la optimización. Ya no se trata de quién gasta más, sino de quién logra más con menos.

Qwen3-Next se alinea perfectamente con esta nueva corriente, planteando una pregunta directa y contundente: ¿realmente es necesario invertir 78 millones de dólares en un modelo si se puede lograr un rendimiento cercano por 500.000? Si bien en las evaluaciones globales aún está un paso por detrás de gigantes como GPT-5, Grok 4, Gemini 2.5 Pro o Claude 4.1 Opus, el rendimiento por cada euro gastado es difícil de ignorar. Qwen3-Next-80B-A3B ya ha superado a modelos como DeepSeek R1 y Kimi-K2 en pruebas de razonamiento, lo que demuestra su potencial. El verdadero reto para Alibaba será probar cómo esta eficiencia escala en la producción diaria y con la base de usuarios. Lo que sí es seguro es que Qwen3-Next ha abierto una nueva y emocionante puerta para el futuro de la inteligencia artificial.

Si quieres usar Qwen, simplemente tienes que acceder al siguiente enlace: QWEN