Qwen 3.5, el modelo gigante Open-Weight que viene a redefinir la IA
Inicio » Blog » Qwen 3.5, el modelo gigante Open-Weight que viene a redefinir la IA

Qwen 3.5-397B-A17B es el nombre que está retumbando en todos los laboratorios de Inteligencia Artificial tras su lanzamiento oficial el 16 de febrero de 2026, marcando un hito sin precedentes en la democratización de modelos de escala masiva. Podemos afirmar que no estamos ante una actualización incremental, sino ante un cambio de paradigma en la arquitectura de pesos abiertos. Desarrollado por el equipo de Alibaba Cloud, este modelo rompe la barrera de los 300 billones de parámetros bajo una licencia Apache 2.0, permitiendo que la comunidad global acceda a una potencia de cómputo que antes estaba reservada exclusivamente para soluciones cerradas y extremadamente costosas.

Un salto técnico: Arquitectura híbrida y eficiencia extrema

La verdadera magia de este modelo reside en su eficiencia operativa. Aunque cuenta con un total de 397 mil millones de parámetros, utiliza un sistema de Mezcla de Expertos Dispersos (Sparse MoE) que solo activa 17 mil millones de parámetros durante cada paso de inferencia (forward pass). Esto significa que obtenemos el razonamiento y la base de conocimiento de un modelo colosal con los requisitos de memoria y la velocidad de respuesta de uno mucho más pequeño.

Lo que diferencia a esta entrega presentada ayer, lunes 16 de febrero, es su innovadora arquitectura híbrida. Combina la Atención Lineal a través de redes Gated Delta con la atención estándar. Esta integración permite que el modelo procese información de manera exponencialmente más rápida, logrando un rendimiento de decodificación entre 8.6 y 19 veces superior al de su predecesor, el Qwen3-Max. Además, su ventana de contexto nativa de 256,000 tokens —ampliable hasta 1 millón en entornos optimizados— lo posiciona como la herramienta definitiva para el análisis de documentos extensos y bases de código complejas.

Multimodalidad nativa y agentes inteligentes

A diferencia de otros modelos donde la visión se «añade» como una capa externa, el Qwen3.5-397B-A17B ha sido entrenado desde su núcleo como un modelo multimodal nativo. Esto le otorga una capacidad de comprensión visual asombrosa, superando en diversos benchmarks a gigantes como GPT-5.2 y Claude 4.5 Opus en tareas de razonamiento matemático visual y comprensión de documentos complejos.

Capacidades de agente y razonamiento avanzado

El modelo ha sido específicamente optimizado mediante aprendizaje por refuerzo (RL) a gran escala para actuar como un agente autónomo. No solo responde preguntas, sino que puede interactuar con interfaces gráficas de usuario (GUI), navegar por internet y utilizar herramientas externas para resolver problemas. Durante las pruebas en vivo realizadas este 16 de febrero, el modelo demostró una capacidad superior para resolver problemas de lógica de «falsa creencia», entendiendo el contexto humano de una manera mucho más natural que las versiones anteriores.

Soporte global y diversidad lingüística

Uno de los puntos más fuertes de esta nueva serie es su ambición global. El soporte lingüístico ha pasado de 119 idiomas en la versión Qwen3 a 201 idiomas y dialectos en esta versión 3.5. Esta expansión asegura que el modelo no solo sea potente en inglés o chino, sino que mantenga una coherencia y precisión cultural en prácticamente cualquier idioma comercial o regional del mundo, facilitando su implementación en mercados internacionales sin pérdida de calidad.

Modos de uso: Rapidez vs. Pensamiento profundo

Para optimizar la experiencia del usuario y el consumo de recursos, Alibaba ha introducido tres modos de funcionamiento claros. El «Modo Rápido» está diseñado para respuestas instantáneas donde la velocidad es la prioridad. El «Modo Pensamiento» activa una cadena de razonamiento interna (Chain of Thought), permitiendo que el modelo «reflexione» antes de emitir una respuesta, lo cual es vital para tareas de programación o matemáticas complejas. Por último, el «Modo Automático» decide de forma autónoma cuál es el mejor enfoque según la complejidad del prompt recibido.

El impacto en el ecosistema del código abierto

El lanzamiento de este modelo bajo la serie Qwen3.5 supone un desafío directo a las empresas que mantienen sus modelos bajo llave. Al ofrecer pesos abiertos (open-weight), se permite a los desarrolladores realizar ajustes finos (fine-tuning) para tareas específicas sin depender de APIs restrictivas. Esto es especialmente relevante para sectores como la medicina, el derecho o la ciberseguridad, donde la privacidad de los datos y la personalización del modelo son requisitos innegociables.

Con una arquitectura que integra 60 capas y 512 expertos totales (de los cuales se activan 11 por cada token), el Qwen3.5-397B-A17B no solo es una proeza de la ingeniería, sino una declaración de intenciones. La IA de vanguardia ya no es un club exclusivo; es una herramienta poderosa que, a partir de esta semana, está en manos de quien tenga la visión y el hardware para desplegarla.

Si quieres usar Qwen, simplemente tienes que acceder al siguiente enlace: QWEN