usewhisper-autohook

自动在响应前获取并注入Whisper记忆上下文,在响应后导入对话轮次,优化Telegram代理的Token使用。

安装

概览

usewhisper-autohook 是一个专为 OpenClaw 生态设计的轻量级技能(Skill),旨在简化与 Whisper 记忆系统的集成,显著优化 Telegram 代理等场景下的 Token 使用效率。该工具通过在模型响应前自动获取并注入用户的长期记忆上下文,在响应后记录对话轮次,实现智能的记忆压缩与复用,从而避免重复发送冗余信息。其核心设计理念是‘开箱即用’,默认启用一系列节省 Token 的优化策略,如 delta 压缩、缓存机制和上下文摘要,用户几乎无需额外配置即可享受高效记忆管理带来的成本降低和性能提升。无论是通过 CLI 直接调用,还是作为代理中间件运行,usewhisper-autohook 都能无缝融入现有 AI 代理架构,尤其适合需要处理长对话历史或追求高性价比 LLM 调用的应用场景。

核心功能特点

  1. 自动在响应前获取并注入 Whisper 记忆上下文,减少重复信息传输
  2. 响应后自动导入对话轮次,持续构建用户记忆档案
  3. 默认启用 delta 压缩、缓存和上下文摘要,最大化节省 Token 消耗
  4. 内置本地持久化 context_hash,确保跨会话记忆连贯性
  5. 支持 OpenAI 兼容 API 和 Anthropic 原生 API 的双向代理模式
  6. 提供命令行工具和系统提示模板,便于快速集成到各类 AI 代理

适用场景

usewhisper-autohook 特别适合那些需要长期维持用户个性化记忆、但又受限于高昂 LLM Token 成本的 AI 应用。例如,在 Telegram 机器人场景中,用户可能频繁发起关于过往讨论内容的查询(如‘上次我们聊了什么?’),传统方式会不断重复发送整个聊天历史,造成巨大浪费。而借助此工具,系统仅需在首次提及时存储关键信息,后续请求则通过压缩后的记忆片段快速唤醒上下文,极大降低每次交互的开销。此外,对于无法自定义 prompt 构造的代理框架,该工具还提供透明化的代理层,在服务端主动裁剪历史、注入记忆,使网络流量和实际计费 token 数量真正下降。无论是个人开发者搭建聊天助手,还是企业级服务希望控制 AI 运营成本,usewhisper-autohook 都提供了即插即用的解决方案,让智能对话更经济、更高效。