什么是Self Improving Agent
Self Improving Agent 是一个基于原子化‘本能’(instincts)的持续学习系统,旨在将 Claude Code 会话中的行为模式转化为可复用的知识资产。该系统通过置信度评分机制捕获细粒度的学习行为,支持项目级与全局级的作用域隔离,并具备持续演进的能力。其核心设计理念是将每一次命令失败、用户纠正或模式发现都转化为结构化的学习条目,从而让 AI 助手在长期使用中不断优化自身的行为策略。系统采用 v2 版本的‘本能模型’作为推荐方式,以 YAML 格式定义小型、原子化的行为规则,每条规则包含触发条件、执行动作、置信度等级及证据来源。相比之下,v1 版本使用 Markdown 文档记录复杂事件分析,适用于非重复性问题的深度复盘。整个架构强调本地化处理,所有观察数据默认保存在用户机器上,仅允许导出经过抽象的本能模式,确保隐私安全。
核心功能特点
- 基于原子化‘本能’的持续学习机制,支持项目级与全局级作用域隔离
- 置信度加权评分系统(0.3-0.9),自动调整行为建议的强制程度
- 支持 PreToolUse/PostToolUse 观察钩子,实现 100% 可靠的学习触发
- 提供 /instinct-status、/evolve、/promote 等命令行工具进行本能管理与升级
- 自动项目检测与哈希标识,确保不同项目的学习成果互不干扰
- 支持从本能聚类生成技能(skills)、命令(commands)和子代理(agents)
适用场景
Self Improving Agent 特别适合需要长期积累开发经验并跨项目复用最佳实践的工程师团队。例如,在一个 React 项目中反复观察到函数式编程风格的偏好后,系统可自动生成‘prefer-functional-style’本能,并在后续代码生成中自动应用该模式;当该模式在其他 Python 或 TypeScript 项目中也被验证有效时,可通过 /promote 指令将其提升为全局行为准则。对于频繁遇到特定错误(如 Git 认证失败)的开发者,系统可在每次失败后记录 ERR 条目,并通过 simplify-and-harden 流程识别出重复问题,最终形成预防性规则写入 CLAUDE.md 或 AGENTS.md。此外,在团队协作环境中,若多个成员在不同子项目中均表现出相似的测试规范偏好(如 Jest 测试结构),/evolve 命令可自动聚类这些本能并建议创建统一的 react-testing-workflow 技能,显著降低新人上手成本。该工具尤其适用于追求工程一致性与自动化改进的 AI 辅助开发场景,帮助构建可持续进化的智能编码伙伴。
