La inteligencia artificial no deja de sorprendernos con avances que redefinen el panorama tecnológico. En un hito reciente que ha captado la atención del mundo, se ha presentado Intern-S1, un modelo de razonamiento multimodal de código abierto desarrollado por el equipo de InterLM que, según sus creadores, es el más avanzado de su tipo hasta la fecha. Con una potencia que lo sitúa en la élite de los modelos de lenguaje, este innovador proyecto no solo compite con gigantes comerciales como Gemini Pro y GPT-4, sino que en ciertos ámbitos, los supera. Este acontecimiento que se realiza el 29 de julio de 2025, conlleva un modelo revolucionario y vamos a entender lo que significa para el futuro de la IA.
El cerebro detrás de la revolución: Arquitectura y entrenamiento de Intern-S1
El extraordinario rendimiento de Intern-S1 no es casualidad. Su arquitectura es una proeza de la ingeniería de software, construida sobre una base sólida que combina el modelo de lenguaje MOE de Cub 3 con un robusto codificador visual de 6 billones de parámetros. Pero, ¿qué hace que su conocimiento sea tan especializado y potente? La clave reside en su meticuloso proceso de entrenamiento. Fue preentrenado con una asombrosa cantidad de 5 trillones de tokens, de los cuales más de la mitad (2.5 trillones) provienen de fuentes científicas. Este enfoque no aleatorio ha dotado a Intern-S1 de un conocimiento profundo en campos especializados.
Razonamiento científico sin precedentes
Gracias a su entrenamiento enfocado en datos científicos, Intern-S1 sobresale en tareas que otros modelos luchan por comprender. Sus capacidades incluyen la interpretación de estructuras químicas, la comprensión de complejas secuencias de proteínas y la planificación de rutas de síntesis de compuestos con una precisión asombrosa. Este conocimiento especializado lo convierte en una herramienta invaluable para investigadores y científicos, abriendo nuevas puertas a la automatización y la innovación en el laboratorio.
Un tokenizador dinámico para el futuro de la ciencia
Una de las innovaciones más destacadas de Intern-S1 es su tokenizador dinámico, una funcionalidad que permite la compresión nativa de elementos como fórmulas moleculares, secuencias de proteínas y señales sísmicas. Esto no solo optimiza el procesamiento de datos, sino que también mejora la precisión y la eficiencia del modelo al trabajar con información altamente técnica, lo que demuestra un diseño pensado para las necesidades de la investigación y el desarrollo científico.

Intern-S1 frente a sus competidores: El veredicto de las evaluaciones
En un esfuerzo por demostrar su superioridad, InterLM ha compartido evaluaciones comparativas que sitúan a Intern-S1 en una posición envidiable. El modelo ha sido puesto a prueba contra una gama de modelos de código abierto y cerrados, incluyendo a Gemini Pro, GPT-4 y Grok. Los resultados son sorprendentes:
El rey del razonamiento visual y matemático
En la tarea Mat Vista, diseñada para evaluar el razonamiento visual, Intern-S1 no solo se desempeñó bien, sino que superó a todos sus competidores, incluidos los modelos de OpenAI, Google y Grok. Un resultado que lo posiciona como líder indiscutible en este tipo de razonamiento. Además, en tareas de física y química, su rendimiento se mantuvo a la par de modelos diseñados específicamente para esos campos, lo que subraya su versatilidad y potencia.
Modos de uso para cada necesidad
Intern-S1 ofrece diferentes modos de uso, lo que lo hace adaptable a una amplia gama de aplicaciones. El modo S1 se refiere al modelo completo, mientras que el modo Skill está optimizado para tareas específicas de química o programación. También dispone de un modo Secuencial, diseñado para flujos de trabajo específicos, lo que permite a los desarrolladores y usuarios personalizar su experiencia y aprovechar al máximo las capacidades del modelo. Su funcionalidad de «tool calling» también es un gran activo, permitiendo la integración con herramientas externas para realizar tareas específicas, como obtener la temperatura actual o ejecutar código.
Si quieres ver Intern-S1, simplemente tienes que entrar en el siguiente enlace: INTERN-S1 HUGGINGFACE