Volver al blog
Artículo destacado

MemAgent: RL Framework Optimizing Long-Context Handling in LLMs

Escrito por

MIIA

Publicado

19 de julio de 2025

Lectura

4 min

MemAgent: RL Framework Optimizing Long-Context Handling in LLMs
Manejar documentos extremadamente largos sigue siendo un gran desafío para los grandes modelos de lenguaje (LLMs). Aunque existen técnicas como la extensión del contexto y la atención dispersa, los modelos suelen perder rendimiento y requieren mucho poder computacional. Para superar esto, investigadores de ByteDance Seed y la Universidad de Tsinghua han desarrollado MemAgent, un agente de memoria basado en aprendizaje por refuerzo que permite procesar contextos largos con complejidad lineal y mínima pérdida de precisión. Los métodos actuales para manejar contextos extensos se dividen en tres grupos principales: 1. Métodos de extensión del contexto (como NTK, PI, YaRN, DCA), que usan manipulaciones en los embeddings posicionales para ampliar la ventana de contexto, pero enfrentan problemas de degradación del rendimiento y dificultad para escalar. 2. Mecanismos de atención dispersa y lineal, que reducen la complejidad a O(n), pero generalmente requieren reentrenar desde cero y dependen de patrones fijos o reglas definidas por humanos. 3. Compresión del contexto, que utiliza memoria a nivel de tokens o módulos externos para condensar entradas largas, aunque esto puede interferir con la generación estándar y tiene problemas para extrapolar. Ninguna de estas estrategias cumple a la vez con los tres requisitos clave: soportar entradas de longitud arbitraria, ofrecer precisión constante y mantener una complejidad computacional lineal y eficiente. MemAgent se inspira en la forma en que las personas resumen lo fundamental y descartan el ruido. Trata cada documento como un flujo de información: lee un fragmento y una memoria interna, actualizando esta última con un contexto comprimido que recoge la información más relevante. Sus innovaciones principales son: - Memoria basada en tokens de longitud fija, que comprime información esencial sin alterar la compatibilidad con el modelo. - Mecanismo de sobreescritura en segmentos, que permite procesar textos de longitud infinita sin aumentar el tamaño de la memoria. - Complejidad lineal, ya que el costo de actualizar la memoria y decodificar permanece constante por fragmento. Para entrenar MemAgent se utiliza un sistema de aprendizaje por refuerzo llamado Group Relative Policy Optimization (GRPO) dentro de un pipeline de conversaciones múltiples (DAPO). Cada fragmento de documento se trata como un diálogo independiente, y un verificador basado en reglas compara las respuestas del modelo con varias respuestas correctas para calcular la recompensa. Esa señal de refuerzo, aplicada de forma homogénea a todos los fragmentos, ayuda a que el agente aprenda a comprimir la memoria enfocándose en la información relevante para responder y descartando lo irrelevante. En pruebas con el benchmark RULER y conjuntos de datos sintéticos de HotpotQA y SQuAD, MemAgent fue entrenado con un contexto de 8.000 tokens y se extrapoló hasta 3.5 millones de tokens, manteniendo más del 95% de precisión en RULER desde 8.000 hasta 512.000 tokens y superando consistentemente a métodos basados en contexto largo y destilación. Por ejemplo, en un caso de preguntas de múltiple salto, dado el cuestionamiento “¿En qué ciudad de Nueva York se basa el director de la comedia romántica ‘Big Stone Gap’?”, MemAgent siguió paso a paso la información relevante entre tres fragmentos: identificó contenidos no relacionados pero retuvo la información de ubicación, mantuvo la memoria a pesar de fragmentos irrelevantes y la actualizó correctamente al encontrar la biografía de Adriana Trigiani, llegando a la respuesta correcta: Greenwich Village, Nueva York. Desde un punto de vista teórico, MemAgent reformula el modelo autorregresivo con variables latentes de memoria que permiten un costo computacional lineal y una memoria intermedia interpretable, algo difícil de lograr con técnicas de compresión basadas en atención. El uso del aprendizaje por refuerzo es clave, ya que las actualizaciones discretas de memoria no pueden aprenderse por retropropagación. En resumen, MemAgent es una solución escalable y eficiente que rompe la trilema del procesamiento de largos contextos: permite entrada de longitud ilimitada, mantiene una precisión casi sin pérdidas y garantiza complejidad lineal. Su mecanismo de memoria sobrescrita basado en RL permite a los LLMs leer, abstraer y generar textos con millones de tokens sin necesidad de modificar la arquitectura. Preguntas frecuentes: - ¿Qué es MemAgent? Un framework basado en aprendizaje por refuerzo que dota a los LLMs de tokens de memoria para gestionar contextos extremadamente largos de manera eficiente. - ¿En qué se diferencia de los métodos de atención o extrapolación? MemAgent emplea una memoria basada en tokens actualizada mediante aprendizaje por refuerzo, en lugar de escalar la atención o manipular embeddings posicionale. - ¿Con qué modelos es compatible? Funciona con cualquier LLM basado en Transformer sin cambios en la arquitectura. - ¿Cómo escala con el tamaño de entrada? Mantiene complejidad lineal porque la memoria tiene tamaño fijo, independientemente del texto. - ¿Cuáles son sus aplicaciones? Ideal para preguntas sobre documentos extensos, sistemas de memoria para agentes, revisión legal, análisis de literatura científica y toma de decisiones en tiempo real con grandes bases de evidencia.