Sakana AB-MCTS, la IA Colectiva que convierte a los LLM en un gran equipo
Inicio » Blog » Sakana AB-MCTS, la IA Colectiva que convierte a los LLM en un gran equipo

La Inteligencia Colectiva ha llegado al mundo de los Grandes Modelos de Lenguaje (LLM) de la mano de la startup japonesa Sakana AI. El nuevo paradigma en el escalado de la IA de vanguardia ya no reside únicamente en crear un modelo individual más grande, sino en enseñar a los ya existentes a trabajar en equipo. El algoritmo AB-MCTS (Adaptive Branching Monte Carlo Tree Search), lanzado públicamente el 27 de junio de 2025, es la clave para fusionar las distintas fortalezas de modelos punteros como GPT-4o mini, Gemini 2.5 Pro y DeepSeek R1-0528, logrando una capacidad de resolución de problemas que supera con creces a la suma de sus partes. Este avance marca un hito crucial en la evolución de la IA, demostrando que la cooperación, inspirada en la naturaleza y los equipos humanos, es el camino hacia la conquista de tareas que antes se consideraban inabordables para un solo modelo.

El Algoritmo AB-MCTS: Uniendo Gigantes de la IA

La investigación de Sakana AI se centra en el concepto de la Inteligencia Colectiva aplicada a la IA, una filosofía que postula que la diversidad de talentos y enfoques es el motor de los mayores logros. Así como el éxito de proyectos humanos trascendentales, desde el programa Apolo hasta la invención de Internet, no ha sido fruto de una mente solitaria, sino de la colaboración multidisciplinar, Sakana AI defiende que lo mismo ocurre con los LLMs.

Modelos como ChatGPT, Gemini o DeepSeek son extremadamente avanzados, pero cada uno tiene sesgos y aptitudes únicas derivadas de sus datos y arquitecturas de entrenamiento. Sakana AI ve estas diferencias no como fallos, sino como recursos preciosos para crear una «súper inteligencia» colectiva. Al combinar sus conocimientos y capacidades de razonamiento a través de AB-MCTS, el sistema resultante es capaz de resolver problemas que son irresolubles para cualquiera de ellos por separado.

La Revolución del Escalado en Tiempo de Inferencia

El algoritmo AB-MCTS es una técnica de escalado en tiempo de inferencia (Inference-Time Scaling). Este concepto es vital: en lugar de mejorar el rendimiento gastando más recursos en el entrenamiento del modelo, se asignan más recursos computacionales en el momento de la prueba o generación de la respuesta.

El equipo de Sakana AI observó el comportamiento humano ante un problema complejo: pensar más tiempo, realizar un proceso de ensayo y error, o pedir ayuda. AB-MCTS imita esta estrategia, permitiendo que el sistema «piense mucho más tiempo» no solo razonando linealmente, sino también a través de una revisión y refinamiento dinámico de las soluciones. Esto es fundamental para tareas desafiantes como la programación compleja o el benchmarking de razonamiento visual.

AB-MCTS: La Búsqueda que Equilibra Amplitud y Profundidad

AB-MCTS es una extensión ingeniosa del clásico algoritmo Monte Carlo Tree Search (MCTS), conocido por su éxito en juegos como AlphaGo. La innovación de Sakana AI radica en su capacidad de rama adaptativa (Adaptive Branching), que le permite decidir dinámicamente la mejor estrategia de búsqueda:

  1. Exploración (Ir Ancho – Go Wider): Generar respuestas totalmente nuevas o enfoques alternativos al problema. Esto asegura la diversidad de soluciones.
  2. Explotación (Ir Profundo – Go Deeper): Seleccionar una solución prometedora existente y refinarla repetidamente. Esto garantiza la calidad y el perfeccionamiento.

El algoritmo utiliza modelos de probabilidad (Thompson Sampling) para estimar qué camino tiene más potencial para el éxito en cada etapa del «árbol de búsqueda», optimizando el uso de las llamadas a los LLMs. A diferencia de otros métodos que usan un ancho o una profundidad fijos, AB-MCTS adapta su estrategia a las necesidades del problema en tiempo real, maximizando el rendimiento con la misma cantidad de recursos.

Resultados y Relevancia en el Ecosistema de la IA

Los experimentos con Multi-LLM AB-MCTS, donde la combinación de modelos se convierte en un equipo de agentes (por ejemplo, o4-mini + Gemini-2.5-Pro + DeepSeek-R1), han demostrado una superioridad aplastante sobre los modelos individuales.

En el exigente benchmark ARC-AGI-2 (un conjunto de pruebas que evalúa la capacidad de razonamiento visual similar a la humana), la configuración multi-LLM logra una tasa de éxito superior al 30% en el modo Pass@250, superando a cualquier modelo individual por un margen considerable. Este rendimiento colectivo demuestra la capacidad del algoritmo para asignar el modelo más adecuado a cada subtarea, descubriendo soluciones que antes se consideraban inalcanzables.

Código Abierto y Futuro de los Agentes de IA

Para impulsar la adopción de esta técnica, Sakana AI ha liberado el algoritmo fundacional como código abierto bajo la licencia Apache 2.0. El framework liberado, llamado TreeQuest, ofrece una API flexible que permite a los desarrolladores implementar el Multi-LLM AB-MCTS con diferentes LLMs y sistemas de puntuación personalizados.

La liberación de TreeQuest el 27 de junio no solo pone una herramienta poderosa en manos de la comunidad, sino que también establece un precedente crucial: el futuro de los sistemas de IA empresariales y de vanguardia podría estar en las arquitecturas de agentes cooperativos en lugar de depender de un único modelo monolítico. Este enfoque colectivo ayuda, además, a mitigar problemas comunes en los LLMs, como la tendencia a la alucinación, al permitir que los diferentes modelos se validen y corrijan mutuamente, cimentando el camino para sistemas de IA más robustos, flexibles y fiables.

Si quieres entrar en Sakana, simplemente tienes que acceder al siguiente enlace: SAKANA