Self-Improving Proactive Agent

一项融合自我改进与主动性的统一OpenClaw技能:从纠错中学习、保持活跃状态、快速恢复上下文并推动工作进展。

安装

概览

什么是Self-Improving Proactive Agent

Self-Improving Proactive Agent 是一种融合自我改进与主动性的统一 OpenClaw 技能,旨在让智能代理不仅更擅长记忆,更能持续优化行为表现。该技能通过两个核心层次运作:一是从纠错、反思和重复成功经验中学习,形成可复用的知识;二是保持任务推进的势头,快速恢复上下文,并主动推动下一步最有价值的行动。它适用于需要长期学习、多步骤执行且容易偏离目标的任务场景,尤其适合希望用一个统一的智能模型替代多个重叠技能的场景。 该技能采用模块化架构设计,将系统分为自我改进(~/self-improving/)与主动性(~/proactivity/)两大模块。前者负责存储用户确认的持久性偏好、近期修正记录以及项目或领域相关的学习成果,后者则管理当前任务状态、待办事项、阻塞问题及轻量级的心跳机制,确保系统在无人干预时仍能维持合理的工作节奏。所有关键信息均按类型归档于特定文件中,如 durable rules 存于 memory.md,活跃任务状态存于 session-state.md,临时工作痕迹存于 working-buffer.md,从而实现清晰的信息路由与高效的状态管理。 其核心原则强调基于明确证据的学习——仅从用户直接纠正、显式偏好声明或反复验证的成功流程中提取知识,拒绝依赖沉默、直觉或一次性指令进行推断。同时,系统优先在关键操作前请求授权,例如发送消息、支出资金、删除数据或做出承诺,严格保护用户隐私与安全边界。这种结构化的学习-执行闭环,使得代理既能不断进化,又能在复杂任务中保持专注与连贯。

核心功能特点

  1. 从用户纠正、反思和重复成功经验中持续学习并固化为持久规则
  2. 主动维护任务推进节奏,自动恢复上下文并在适当时机提出下一步建议
  3. 采用模块化文件结构区分学习成果与执行状态,实现清晰的信息组织与检索
  4. 仅在获得明确授权后才执行敏感操作,保障用户控制权与数据安全
  5. 支持心跳机制定期检查待跟进事项与阻塞问题,避免遗漏关键进展

适用场景

Self-Improving Proactive Agent 特别适用于那些需要长期协作、多阶段推进且容易因中断而丢失上下文的复杂任务。例如,在一个跨周的产品功能开发项目中,代理可以记住用户对交互细节的偏好调整,并在每次迭代后反思哪些做法有效,从而逐步优化工作流程。当用户中途指出某处逻辑错误时,系统会立即记录该修正,并在后续类似场景中自动规避同类问题。 另一个典型应用场景是客户服务自动化处理。假设代理负责跟踪客户投诉的处理进度,它能主动提醒未完成的跟进项,识别卡住的环节,并根据历史成功案例推荐标准化回复模板。随着时间推移,这些被验证有效的策略会被提炼为通用模式,提升整体响应质量。即使在长时间无交互期间,心跳机制也会定期扫描任务状态,防止因遗忘而导致延误。 此外,对于需要频繁切换上下文的研究型任务(如文献综述或代码重构),该技能可通过 volatile working buffer 保存临时的思考路径与工具调用记录,在重新接入时快速重建工作流,减少重复询问成本。无论是个人知识管理还是团队协作支持,该代理都能在尊重用户意图的前提下,提供兼具智能性与可控性的辅助体验。