https://github.com/ckpxgfnksd-max/prompt-compressor-openclaw

通过教导智能体编写压缩回复、压缩记忆日志及压缩预整合摘要,节省 20-40% 的 LLM Token。通过 SO... 运作。

安装

概览

什么是https://github.com/ckpxgfnksd-max/prompt-compressor-openclaw

Prompt Compressor 是一个专为 OpenClaw 智能体设计的效率优化工具,旨在通过系统性地压缩智能体的输出内容来显著减少大型语言模型(LLM)的 Token 消耗。其核心理念并非事后压缩,而是从一开始就引导智能体以高度精简的方式思考和表达,从而在对话的每一轮中持续节省计算资源。该工具通过向智能体的 SOUL.md 文件中添加特定指令来实现这一目标,确保所有输出都遵循一套严格的简洁性原则。

与传统的钩子(hook)机制不同,Prompt Compressor 采用了一种更直接、更底层的方法。它通过在 SOUL.md 中嵌入指令,强制改变智能体的默认行为模式。这种设计使得压缩规则成为智能体内在的工作方式,而非外部的后期处理步骤,从而保证了压缩效果的连贯性和一致性。对于需要长期运行、频繁交互的智能体项目而言,这种持续的 Token 节省将带来显著的累积效益。

此外,Prompt Compressor 还提供了手动压缩功能,允许用户在特定情况下对任意文本进行即时优化。这为用户提供了灵活性,可以在必要时对非智能体生成内容进行快速精简,进一步扩展了其应用场景和价值。

核心功能特点

  1. 强制智能体编写高度压缩的响应,去除冗余表达,直接给出答案
  2. 规范记忆日志格式,要求每行只记录一个事实,摒弃叙述性描述
  3. 压缩每日日志内容,仅保留决策要点,省略讨论过程
  4. 自动压缩预整合摘要,确保信息以事实为单位而非段落形式呈现
  5. 提供手动压缩功能,支持用户自定义规则快速精简任意文本
  6. 通过 SOUL.md 指令注入方式实现,无需依赖特定版本的 OpenClaw 钩子

适用场景

Prompt Compressor 特别适合那些需要长时间运行或高频次交互的智能体项目。例如,在开发一个需要持续监控、分析大量数据并生成报告的自动化智能体时,每一次输出的 Token 消耗都会随着对话历史的增长而累积。使用 Prompt Compressor 可以显著降低每次会话的 Token 成本,这对于预算有限或使用按量计费的 LLM API 服务尤为重要。

另一个典型场景是构建需要复杂记忆和日志记录的 AI 助手。传统模式下,智能体可能会生成冗长的叙述性日志和详细的记忆条目,这些内容不仅占用大量 Token,而且往往包含大量无关信息。通过 Prompt Compressor 的规则约束,智能体能够生成更精炼、更具信息密度的日志和记忆,这不仅节省了 Token,也提高了后续检索和处理这些信息的效率。

此外,对于希望优化现有智能体性能的用户,Prompt Compressor 提供了一个无需修改代码即可见效的解决方案。只需将指定内容追加到 SOUL.md 文件并重启会话,即可立即体验到输出内容的精简和 Token 消耗的下降。这种即插即用的特性使其成为提升智能体整体效率和降低成本的理想选择。