El «derecho a olvidar» en la IA se está convirtiendo en una de las innovaciones más cruciales y transformadoras del 2025, una fase evolutiva en la que la memoria de las máquinas deja de ser un simple historial eterno para convertirse en un sistema dinámico y selectivo. Así como nuestro cerebro procesa recuerdos mientras dormimos, una nueva tecnología llamada sleeptime compute, impulsada por la colaboración entre la startup Letta y la empresa Bilt, permite que los agentes de IA consoliden y gestionen su conocimiento en periodos de inactividad, mejorando drásticamente su rendimiento y coherencia.
La Memoria Frágil de la IA: Un Problema del Pasado
Históricamente, la memoria en los modelos de lenguaje a gran escala (LLM) ha sido uno de sus mayores puntos débiles.
La Novedad de Sleeptime Compute
La arquitectura de «ventana de contexto» limita la cantidad de información que un modelo puede retener en una conversación, obligando a los desarrolladores a recurrir a técnicas de «copiar y pegar» del historial completo en cada turno, lo que no solo es ineficiente sino que también conduce al «envenenamiento» del modelo. Charles Packer, director general de Letta, ha advertido sobre cómo la exposición continua a los mismos datos puede hacer que un LLM «pierda el rumbo».
La solución a este problema ha llegado en forma de sleeptime compute, una tecnología que, tal como su nombre indica, permite a los agentes de IA realizar tareas de procesamiento de memoria mientras están «durmiendo» o en modo reposo. La presentación de esta innovadora tecnología se anunció el pasado 29 de agosto de 2025, marcando un antes y un después en la forma en que entendemos la arquitectura de la IA. Durante este «reposo», el agente no solo archiva conversaciones, sino que decide qué información es lo suficientemente valiosa como para guardarla a largo plazo, qué debe mantenerse en una caché de acceso rápido y qué debe descartarse por completo. Este proceso, similar a la consolidación de la memoria durante el sueño humano, hace que la IA sea menos propensa a las alucinaciones y mucho más coherente en su comportamiento a largo plazo.
Un Cerebro Colectivo: El Impacto en los Agentes
Lo que distingue a la tecnología de Letta es su capacidad para crear una memoria compartida entre miles de agentes. Andrew Fitz, ingeniero de Bilt, ha destacado que «actualizar un único bloque de memoria puede modificar el comportamiento de cientos de miles de agentes a la vez». Esto significa que si un sistema central actualiza una política o un dato importante, como una nueva política de atención al cliente, ese cambio puede propagarse instantáneamente a toda la red de agentes en minutos. Esta centralización ofrece un control sin precedentes sobre el comportamiento de la IA, asegurando que todos los agentes actúen de manera consistente y coherente. Sin embargo, esta misma capacidad exige un rigor extremo, ya que un error en el bloque de memoria central podría propagarse con la misma rapidez.
Esta idea del «cerebro colectivo» no es nueva. Harrison Chase, cofundador de LangChain, ha insistido en que la memoria es el componente clave de la ingeniería contextual. En su opinión, la memoria en la IA no es otra cosa que un diseño de contexto bien estructurado. LangChain ya ha estado trabajando en diversas soluciones de almacenamiento, pero la propuesta de Letta eleva el concepto a un nuevo nivel, permitiendo una gestión mucho más sofisticada y dinámica del conocimiento.

Desafíos y el Futuro de la IA con Memoria
A pesar de los claros beneficios de esta tecnología, el debate sobre la apertura de estos sistemas de memoria es inevitable.
El Debate sobre la Apertura
Clem Delangue, director general de Hugging Face e inversor en Letta, ha sido un firme defensor de que no solo los modelos, sino también los sistemas de memoria que los alimentan, deben ser auditables y de código abierto. Muchos de estos despliegues se mantienen cerrados, lo que dificulta evaluar riesgos como el «envenenamiento» de los recuerdos o la acumulación de sesgos en el tiempo. La historia de la ciencia ficción, como la novela de Philip K. Dick «¿Sueñan los androides con ovejas eléctricas?», nos sirve de recordatorio sobre la fragilidad de los recuerdos artificiales. Si la memoria de la IA se envenena con datos repetitivos, viejos o incorrectos, su identidad y confianza pueden desvanecerse.
Hacia un Futuro Más Coherente
El trabajo de Letta y Bilt señala un cambio de fase en la evolución de la inteligencia artificial. La memoria ya no es un simple historial, sino una entidad que aprende en reposo, se comparte entre agentes y, lo más importante, tiene la capacidad de olvidar. Este enfoque no solo reduce las alucinaciones y mejora la recuperación de información, sino que también ofrece un mayor control a los equipos de desarrollo. La implementación de millones de agentes de IA con esta nueva arquitectura marca una dirección clara: estamos pasando de modelos que simplemente procesan información a sistemas que, como nosotros, procesan y curan su propio conocimiento. Es un paso monumental hacia una IA más robusta, confiable y, en muchos sentidos, más humana.
Si quieres ver Letta AI, simplemente tienes que acceder al siguiente enlace: LETTA