logo
0
0
WeChat Login
Jiaaqiliu<jqliu@cs.unc.edu>
feat: Cross-session memory extension with 64% improvement over Claude-Mem
simplemem_logo

Memoria Eficiente de por Vida para Agentes LLM

Almacena, comprime y recupera memorias a largo plazo con compresión semántica sin pérdidas. Compatible con Claude, Cursor, LM Studio y más.

Funciona con cualquier plataforma de IA que soporte MCP o integración con Python

Claude Desktop
Claude Desktop
Cursor
Cursor
LM Studio
LM Studio
Cherry Studio
Cherry Studio
PyPI
Paquete PyPI
+ Cualquier
Cliente MCP

🔥 Novedades

  • [02/09/2026] 🚀 ¡Memoria Cross-Session disponible - Superando a Claude-Mem en 64%! SimpleMem ahora soporta memoria persistente entre conversaciones. En el benchmark LoCoMo, SimpleMem logra una mejora del 64% sobre Claude-Mem. Tus agentes ahora pueden recordar automáticamente el contexto, decisiones y aprendizajes de sesiones anteriores. Ver Documentación Cross-Session →
  • [01/20/2026] ¡SimpleMem ya está disponible en PyPI! 📦 Instala directamente con pip install simplemem. Ver Guía de Uso del Paquete →
  • [01/19/2026] ¡Almacenamiento de memoria local añadido a SimpleMem Skill! 💾 Ahora soporta almacenamiento de memoria local dentro de Claude Skills.
  • [01/18/2026] ¡SimpleMem ahora soporta Claude Skills! 🚀 Usa SimpleMem en claude.ai para memoria a largo plazo entre conversaciones. Regístrate en mcp.simplemem.cloud, configura tu token e importa el skill.
  • [01/14/2026] ¡El servidor MCP de SimpleMem está EN VIVO y es Open Source! 🎉 Servicio de memoria en la nube en mcp.simplemem.cloud. Se integra con LM Studio, Cherry Studio, Cursor, Claude Desktop mediante el protocolo MCP Streamable HTTP. Ver Documentación MCP →
  • [01/08/2026] 🔥 ¡Únete a nuestro Discord y grupo de WeChat para colaborar e intercambiar ideas!
  • [01/05/2026] ¡El paper de SimpleMem fue publicado en arXiv!

📑 Tabla de Contenidos


🌟 Descripción General

Compromiso Rendimiento vs Eficiencia

SimpleMem logra una puntuación F1 superior (43.24%) con un costo mínimo de tokens (~550), ocupando la posición ideal superior izquierda.

SimpleMem es un marco de memoria eficiente basado en compresión semántica sin pérdidas que aborda el desafío fundamental de la memoria eficiente a largo plazo para agentes LLM. A diferencia de los sistemas existentes que acumulan pasivamente contexto redundante o dependen de costosos bucles de razonamiento iterativo, SimpleMem maximiza la densidad de información y la utilización de tokens a través de un pipeline de tres etapas:

🔍 Etapa 1

Compresión Estructurada Semántica

Destila interacciones no estructuradas en unidades de memoria compactas con índices multi-vista

🗂️ Etapa 2

Síntesis Semántica en Línea

Proceso intra-sesión que integra instantáneamente contexto relacionado en representaciones abstractas unificadas para eliminar redundancia

🎯 Etapa 3

Planificación de Recuperación Consciente de la Intención

Infiere la intención de búsqueda para determinar dinámicamente el alcance de recuperación y construir contexto preciso eficientemente

Marco SimpleMem

La Arquitectura SimpleMem: (1) La Compresión Estructurada Semántica filtra diálogos de baja utilidad y convierte ventanas informativas en unidades de memoria compactas e independientes del contexto. (2) La Síntesis Semántica en Línea consolida fragmentos relacionados durante la escritura, manteniendo una topología de memoria compacta y coherente. (3) La Planificación de Recuperación Consciente de la Intención infiere la intención de búsqueda para adaptar el alcance de recuperación y las formas de consulta, permitiendo recuperación paralela multi-vista y construcción de contexto eficiente en tokens.


🏆 Comparación de Rendimiento

Demo de Comparación de Velocidad

SimpleMem vs. Línea Base: Demostración de comparación de velocidad en tiempo real

Resultados del Benchmark LoCoMo-10 (GPT-4.1-mini)

Modelo⏱️ Tiempo de Construcción🔎 Tiempo de Recuperación⚡ Tiempo Total🎯 F1 Promedio
A-Mem5140.5s796.7s5937.2s32.58%
LightMem97.8s577.1s675.9s24.63%
Mem01350.9s583.4s1934.3s34.20%
SimpleMem92.6s388.3s480.9s43.24%

💡 Ventajas Clave:

  • 🏆 Mayor Puntuación F1: 43.24% (+26.4% vs. Mem0, +75.6% vs. LightMem)
  • Recuperación Más Rápida: 388.3s (32.7% más rápido que LightMem, 51.3% más rápido que Mem0)
  • 🚀 Más Rápido de Extremo a Extremo: 480.9s de tiempo total de procesamiento (12.5× más rápido que A-Mem)

🎯 Contribuciones Principales

1️⃣ Compresión Estructurada Semántica

SimpleMem aplica un mecanismo de filtrado implícito de densidad semántica integrado en el proceso de generación del LLM para filtrar contenido de interacción redundante. El sistema reformula flujos de diálogo brutos en unidades de memoria compactas — hechos autocontenidos con correferencias resueltas y marcas de tiempo absolutas. Cada unidad se indexa mediante tres representaciones complementarias:

🔍 Capa📊 Tipo🎯 Propósito🛠️ Implementación
SemánticaDensaSimilitud conceptualEmbeddings vectoriales (1024-d)
LéxicaDispersaCoincidencia exacta de términosÍndice de palabras clave estilo BM25
SimbólicaMetadatosFiltrado estructuradoMarcas de tiempo, entidades, personas

✨ Ejemplo de Transformación:

- Entrada: "Él se reunirá con Bob mañana a las 2pm" [❌ relativo, ambiguo] + Salida: "Alice se reunirá con Bob en Starbucks el 2025-11-16T14:00:00" [✅ absoluto, atómico]

2️⃣ Síntesis Semántica en Línea

A diferencia de los sistemas tradicionales que dependen del mantenimiento asíncrono en segundo plano, SimpleMem realiza la síntesis sobre la marcha durante la fase de escritura. Las unidades de memoria relacionadas se sintetizan en representaciones abstractas de nivel superior dentro del alcance de la sesión actual, permitiendo que experiencias repetitivas o estructuralmente similares se desruiden y compriman inmediatamente.

✨ Ejemplo de Síntesis:

- Fragmento 1: "El usuario quiere café" - Fragmento 2: "El usuario prefiere leche de avena" - Fragmento 3: "El usuario lo quiere caliente" + Consolidado: "El usuario prefiere café caliente con leche de avena"

Esta síntesis proactiva asegura que la topología de memoria se mantenga compacta y libre de fragmentación redundante.


3️⃣ Planificación de Recuperación Consciente de la Intención

En lugar de una recuperación de profundidad fija, SimpleMem aprovecha las capacidades de razonamiento del LLM para generar un plan de recuperación integral. Dada una consulta, el módulo de planificación infiere la intención de búsqueda latente para determinar dinámicamente el alcance y la profundidad de recuperación:

{qsem,qlex,qsym,d}P(q,H)\{ q_{\text{sem}}, q_{\text{lex}}, q_{\text{sym}}, d \} \sim \mathcal{P}(q, H)

El sistema luego ejecuta recuperación paralela multi-vista a través de índices semánticos, léxicos y simbólicos, y fusiona los resultados mediante deduplicación basada en ID:

🔹 Consultas Simples

  • Búsqueda directa de hechos a través de una sola unidad de memoria
  • Profundidad mínima de recuperación
  • Tiempo de respuesta rápido

🔸 Consultas Complejas

  • Agregación a través de múltiples eventos
  • Profundidad de recuperación expandida
  • Cobertura integral

📈 Resultado: 43.24% de puntuación F1 con 30× menos tokens que los métodos de contexto completo.


🚀 Aspectos Destacados del Rendimiento

📊 Resultados de Benchmark (LoCoMo)

🔬 Modelos de Alta Capacidad (GPT-4.1-mini)
Tipo de TareaSimpleMem F1Mem0 F1Mejora
MultiHop43.46%30.14%+43.8%
Temporal58.62%48.91%+19.9%
SingleHop51.12%41.3%+23.8%
⚙️ Modelos Eficientes (Qwen2.5-1.5B)
MétricaSimpleMemMem0Notas
F1 Promedio25.23%23.77%Competitivo con un modelo 99× más pequeño

📦 Instalación

📋 Requisitos

  • 🐍 Python 3.10
  • 🔑 API compatible con OpenAI (OpenAI, Qwen, Azure OpenAI, etc.)

🛠️ Configuración

# 📥 Clonar repositorio git clone https://github.com/aiming-lab/SimpleMem.git cd SimpleMem # 📦 Instalar dependencias pip install -r requirements.txt # ⚙️ Configurar ajustes de API cp config.py.example config.py # Editar config.py con tu clave API y preferencias

⚙️ Ejemplo de Configuración

# config.py OPENAI_API_KEY = "your-api-key" OPENAI_BASE_URL = None # o endpoint personalizado para Qwen/Azure LLM_MODEL = "gpt-4.1-mini" EMBEDDING_MODEL = "Qwen/Qwen3-Embedding-0.6B" # Recuperación de última generación

⚡ Inicio Rápido

🎓 Uso Básico

from main import SimpleMemSystem # 🚀 Inicializar sistema system = SimpleMemSystem(clear_db=True) # 💬 Agregar diálogos (Etapa 1: Compresión Estructurada Semántica) system.add_dialogue("Alice", "Bob, let's meet at Starbucks tomorrow at 2pm", "2025-11-15T14:30:00") system.add_dialogue("Bob", "Sure, I'll bring the market analysis report", "2025-11-15T14:31:00") # ✅ Finalizar codificación atómica system.finalize() # 🔎 Consulta con recuperación consciente de la intención answer = system.ask("When and where will Alice and Bob meet?") print(answer) # Salida: "16 November 2025 at 2:00 PM at Starbucks"

🔌 Servidor MCP

SimpleMem está disponible como servicio de memoria alojado en la nube mediante el Model Context Protocol (MCP).

🌐 Servicio en la Nube: mcp.simplemem.cloud

Configuración Rápida

{ "mcpServers": { "simplemem": { "url": "https://mcp.simplemem.cloud/mcp", "headers": { "Authorization": "Bearer YOUR_TOKEN" } } } }

📖 Para instrucciones detalladas y guía de auto-alojamiento, consulta la Documentación MCP


📊 Evaluación

# 🎯 Benchmark completo LoCoMo python test_locomo10.py # 📉 Evaluación de subconjunto (5 muestras) python test_locomo10.py --num-samples 5

📝 Citación

@article{simplemem2025, title={SimpleMem: Efficient Lifelong Memory for LLM Agents}, author={Liu, Jiaqi and Su, Yaofeng and Xia, Peng and Zhou, Yiyang and Han, Siwei and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu}, journal={arXiv preprint arXiv:2601.02553}, year={2025}, url={https://github.com/aiming-lab/SimpleMem} }

📄 Licencia

Este proyecto está licenciado bajo la Licencia MIT - consulta el archivo LICENSE para más detalles.


🙏 Agradecimientos

  • 🔍 Modelo de Embeddings: Qwen3-Embedding - Rendimiento de recuperación de última generación
  • 🗄️ Base de Datos Vectorial: LanceDB - Almacenamiento columnar de alto rendimiento
  • 📊 Benchmark: LoCoMo - Marco de evaluación de memoria de contexto largo