Token Saver

降低 OpenClaw AI 成本,模型感知优化。提供基于模型上下文窗口的动态压缩预设、智能文件压缩、可靠的模型检测与回退。支持 Claude、GPT-4、Gemini、DeepSeek 等。

安装

概览

什么是Token Saver

Token Saver v3 是一款专为降低 OpenClaw AI 使用成本而设计的智能优化工具,其核心在于模型感知的动态压缩技术。在 AI 对话中,工作区文件(如 SOUL.md、USER.md、MEMORY.md 等)会随每条消息被发送至 API,这些文件占据宝贵的上下文窗口空间,不仅拖慢响应速度,更直接增加调用费用。Token Saver 通过识别当前使用的模型及其上下文容量,自动调整压缩策略,实现精准的资源管理。

该工具支持包括 Claude、GPT-4、Gemini、DeepSeek 等在内的主流大语言模型,并内置完整的模型注册表,涵盖各模型的上下文窗口大小与定价信息。不同于传统固定阈值的压缩方案,v3 版本引入动态预设机制,根据目标模型的上下文限制灵活缩放压缩强度,确保在最大效率与语义完整性之间取得平衡。同时,所有处理均在本地完成,无需外部请求,保障数据安全且无隐私泄露风险。

无论是开发者、AI 研究员还是高频使用多模态 AI 工具的用户,都能通过 Token Saver 显著减少不必要的 token 消耗。它不仅提供一键式文件压缩功能,还具备完善的审计与回滚能力,让用户始终掌控优化过程。从 v2 到 v3 的升级,标志着从“通用压缩”向“模型定制化优化”的关键跃迁,代表了新一代 AI 生产力工具的成熟形态。

核心功能特点

  1. 模型感知动态压缩:根据当前 AI 模型的实际上下文窗口自动调整压缩阈值,而非使用固定数值
  2. 智能文件分类压缩:针对不同工作区文件(SOUL/AGENTS/USER/MEMORY 等)采用差异化压缩策略以保留关键语义
  3. 完整模型注册表支持:内置 24+ 主流模型数据(含 Claude/GPT/Gemini/DeepSeek),实时匹配上下文与价格信息
  4. 稳健的多层模型检测机制:优先读取运行时参数、环境变量、配置文件及文件内容中的模型声明,未知模型自动降级至安全默认值
  5. 持久化写作引导模式:在 AGENTS.md 中添加持续性的 token 节约建议,形成长期高效的工作流习惯
  6. 零外部依赖的本地处理:所有分析、压缩与备份操作均在用户本地执行,不依赖云端服务或第三方接口

适用场景

Token Saver 特别适合那些需要频繁与大语言模型交互并涉及大量文档协作的专业场景。例如,AI 开发者在进行代码生成或系统架构设计时,常需将项目结构、角色设定和记忆摘要等 Markdown 文件作为上下文输入。若未做优化,仅几轮对话就可能耗尽昂贵的上下文配额。此时,运行 /optimize tokens 命令即可对全部工作区文件进行智能压缩,节省高达 60% 以上的 token 占用,显著延长单次会话的有效长度。

对于企业级 AI 应用部署而言,成本控制尤为关键。假设团队同时使用 GPT-4o(128K 上下文)和 Claude Opus 4.5(200K 上下文)两种模型,Token Saver 能自动识别当前模型并切换至对应的压缩预设。比如在 Gemini 3 Pro(2M 上下文)环境下开启‘保守’模式,可一次性加载更多历史记录而不牺牲性能;而在资源受限的 DeepSeek V3(64K)上则启用‘激进’压缩,确保核心信息不被截断。这种自适应能力极大提升了跨平台协同的效率一致性。

此外,研究人员在进行大规模提示工程测试或多轮迭代实验时,往往积累了大量中间结果和临时笔记。Token Saver 的‘智能绕过已优化文件’特性避免了重复处理,结合自动备份与一键还原功能(/optimize revert),让用户可以放心大胆地尝试不同压缩策略,而不用担心数据丢失。无论是个人知识管理、团队协作开发,还是商业级 AI 系统集成,Token Saver 都提供了一套可靠、易用且高度可扩展的 token 优化解决方案。