Auto Memory Distiller

自动将原始长对话转化为结构化、主题化的Markdown知识卡片,支持来源追溯,以增量静默方式运行。

安装

概览

Auto Memory Distiller 是一个专为 OpenClaw 框架设计的长期记忆自动提炼技能,能够在后台静默运行,持续将原始的长对话日志(以 JSONL 格式存储)转化为结构清晰、主题化且可追溯的知识卡片。该工具的核心目标是解决超长对话数据无序堆积的问题,通过自动化处理,帮助用户构建一个组织良好、易于检索的长期知识库。其设计初衷是减少人工整理负担,确保重要信息不被遗漏,同时保持知识体系的连贯性。整个流程无需用户频繁干预,只需在初始阶段配置好环境即可实现长期稳定运行。

核心功能特点

  1. 增量游标处理:通过 state.json 记录会话进度,仅处理新增对话内容,避免重复计算和 Token 浪费。
  2. 主题聚合管理:自动识别并合并新知识到现有主题目录中,有效防止知识碎片化,维持知识库的逻辑结构。
  3. 敏感信息安全过滤:利用大模型能力智能清洗 API Key 等敏感信息及无关日志,保障数据安全。
  4. 完整溯源机制:生成的 Markdown 知识卡片始终附带原始对话文件的物理路径和行号,便于回溯验证。

适用场景

Auto Memory Distiller 特别适用于需要长期积累和沉淀对话信息的开发者或团队场景。例如,在使用 AI 助手进行复杂项目开发时,系统会不断生成大量交互日志;该工具可自动将这些零散的对话提炼为按功能模块分类的知识卡片,形成可复用的技术文档。对于研究型用户而言,它能帮助梳理与 AI 的多轮深度讨论,提取关键决策点和解决方案,构建个人专属的问答知识库。此外,在团队协作环境中,统一的知识卡片输出也便于成员间共享理解,提升整体协作效率。由于其静默增量特性,即使在高频对话场景下也不会造成性能负担。