Session Context Compressor

压缩 OpenClaw 会话上下文以减少 Token 消耗并延长会话时长。利用 NLP 摘要技术(Sumy)智能压缩对话历史,同时保留关键语境。当提及会话压缩、Token 缩减、上下文清理或会话大小超出安全阈值(约 300KB)时触发。适用于以下情况:(1) OpenClaw 上下文接近 50% 限制;(2) 大上下文导致会话运行缓慢;(3) 需降低因 To…

安装

概览

什么是Session Context Compressor

Session Context Compressor(会话上下文压缩器)是一款专为 OpenClaw AI 会话设计的智能工具,旨在通过自动压缩对话历史来显著降低 Token 消耗并延长会话的有效运行时长。该工具利用先进的自然语言处理(NLP)摘要技术,特别是 Sumy 库中的 LexRank 算法,对过长的对话记录进行智能提炼与压缩。其核心原理是在保留最近关键交互内容的同时,将早期的大量对话信息浓缩为一条简洁的系统消息摘要,从而在不损失核心语境的前提下实现高达 85%-96% 的上下文体积缩减。这一机制不仅有效缓解了因上下文过大导致的模型响应延迟问题,还能大幅减少调用大型语言模型 API 所产生的成本。当检测到会话大小接近或超过 300KB 安全阈值、Token 使用达到限制 50% 以上,或系统提示性能下降时,该工具可主动介入,确保会话持续高效运行。

核心功能特点

  1. 基于 NLP 摘要技术(Sumy/LexRank)智能压缩对话历史,保留关键语义信息
  2. 自动识别并触发压缩条件,如上下文达 50% 限制、会话文件超 300KB 或响应变慢
  3. 保留最近 5 条原始消息以确保即时上下文连贯性,其余内容被摘要替代
  4. 每次压缩前自动生成 `.backup` 备份,支持一键恢复原始会话
  5. 可自定义保留更多近期消息数量(如 `–keep 10`),平衡摘要质量与细节保留
  6. 提供干跑模式(dry-run)预览压缩效果,无需实际修改即可查看统计结果

适用场景

Session Context Compressor 特别适用于需要长时间维持高质量 AI 对话体验的开发者和用户场景。例如,在构建复杂的多轮次编程辅助、代码审查或系统架构设计任务中,OpenClaw 会不断积累大量上下文信息,极易触发 Token 上限导致会话中断。此时使用该工具可提前压缩历史对话,使会话寿命从约 30 分钟延长至数小时,显著提升工作效率。对于频繁使用 OpenClaw 进行文档分析、知识问答或自动化脚本生成的用户而言,定期执行压缩操作能有效控制 API 调用成本——典型测试显示,压缩后 Token 消耗减少约 84%,而文件大小从 347KB 降至仅 12KB。此外,当遇到模型响应迟缓、推理速度明显下降时,这往往是上下文臃肿所致;此时运行压缩不仅能恢复流畅交互体验,还能避免因强制重启会话造成的工作流中断。无论是个人开发者还是团队协作环境,该工具都可通过集成至定时任务(如每日一次)实现自动化上下文维护,成为优化 OpenClaw 使用效能的关键组件之一。