Self Improving Agent 1.0.1 是一个专为 AI 编码代理设计的持续改进机制,旨在通过系统性地捕获、记录和复用开发过程中产生的学习内容、错误及纠正措施,实现工具的自我进化与知识积累。该工具的核心理念是将每一次失败、用户反馈或意外发现转化为可追踪、可复用的项目资产,从而避免重复犯错并加速未来任务的执行效率。其运作方式依赖于在项目根目录下维护一个 `.learnings/` 目录,其中包含三类结构化 Markdown 文件:`LEARNINGS.md` 用于记录新知识或最佳实践,`ERRORS.md` 用于归档操作失败案例,以及 `FEATURE_REQUESTS.md` 用于收集用户需求。每条条目均包含时间戳、优先级、状态标签、影响领域等元数据,并支持关联相关文件或已有条目,形成可追溯的知识网络。此外,当某些学习内容具有广泛适用性时,系统支持将其“升级”至项目级记忆文件(如 `CLAUDE.md`、`AGENTS.md` 或 `.github/copilot-instructions.md`),确保所有参与方共享关键洞察。整个流程强调即时记录、定期审查和自动化触发,使 AI 代理能够在长期协作中不断成长。
核心功能特点
- 自动捕获命令执行失败、API 调用异常及外部工具错误,并生成带详细上下文的结构化错误日志
- 实时响应用户对 Claude 的纠正(如‘不对,那错了’)、功能请求或知识更新提示,将其转化为分类学习条目
- 支持三种标准化日志格式:学习成果(LEARNINGS)、错误记录(ERRORS)和功能需求(FEATURE_REQUESTS),每种均含优先级、状态和关联文件信息
- 提供 ID 自动生成规则(如 LRN-20250115-001),便于唯一标识并按时间排序追踪历史问题
- 具备‘晋升机制’,可将高价值、跨项目的通用经验提炼并写入项目级指导文档(如 CLAUDE.md),实现知识沉淀
- 集成可选钩子脚本(hooks),可在特定事件后自动提醒评估是否需要记录学习内容或检测错误
适用场景
Self Improving Agent 特别适用于那些频繁遭遇非预期结果、需要反复调试或依赖用户交互修正的场景。例如,当一个命令行操作突然返回非零退出码或抛出未预期的异常时,系统会自动建议将该错误记录到 `ERRORS.md` 中,附上实际报错信息、尝试的命令和环境细节,为后续排查提供依据。另一种典型情况是用户直接在对话中纠正 Claude 的回答,比如指出‘实际上,它应该用 pnpm 而不是 npm’,此时工具会立即将此反馈归类为‘correction’类型的学习条目,帮助模型理解项目特定的构建规范。同样,若用户提出希望实现某个当前不支持的功能(如批量重命名文件),该请求会被录入 `FEATURE_REQUESTS.md`,附带使用背景和复杂度评估,供团队规划迭代参考。对于那些因知识过时导致的错误判断——比如引用已弃用的 API 文档——也会被标记为‘knowledge_gap’类学习,推动模型更新内部认知。此外,当发现更优的任务处理方式(如替换低效的正则表达式为专用解析器)时,此类‘best_practice’可被记录并可能晋升为项目标准。重大任务启动前,开发者还可主动回顾 `.learnings/` 目录中的待处理项,防止踩坑。整体而言,该工具无缝融入开发工作流,无论是本地调试、团队协作还是多轮对话优化,都能显著提升 AI 代理的适应力与可靠性。
