TokenKiller

通过预算、门控、渐进式披露与去重,降低多技能智能体工作流(搜索、编码、调试、测试、文档)的 token 消耗。

安装

概览

什么是TokenKiller

TokenKiller 是一款专为多技能智能体工作流设计的 token 节流工具,旨在系统性地降低搜索、编码、调试、测试和文档生成等任务中的 token 消耗,同时保持较高的成功率。其核心理念是通过预算控制、信息分层和去重机制,在保证任务完成质量的前提下显著减少资源浪费。该工具适用于需要处理复杂代码库或执行多步骤任务的 AI 代理系统,尤其适合对上下文长度敏感的应用场景。 TokenKiller 采用‘先评估后执行’的工作流程:在任务开始前,根据复杂度自动设定工具调用预算(Simple≤3次、Medium≤6次、Complex≤10次)和输出行数限制(分别为50/120/200行),形成双重门控机制。它强调‘目标优先于证据’的原则,要求所有响应必须首先明确 L0 层级的单句目标,再按需引入 L2 层的关键证据摘要,仅在必要时才拉取 L3 层的完整内容。这种渐进式披露策略有效避免了将大文件全文或冗长日志直接注入上下文的问题。 此外,TokenKiller 具备自我检查能力,每三次工具调用后会自动审视是否处于合理的信息层级、是否存在重复引用以及输出是否超出必要范围。对于高消耗行为如全量读取超过500行的文件或输出完整文件内容,系统会主动规避并建议替代方案,例如通过 diff 形式展示变更而非重新粘贴全部代码。

核心功能特点

  1. 基于任务复杂度动态分配工具调用与输出行数预算
  2. 强制实施 L0-L2 信息分层模型,最小化冗余上下文输入
  3. 内置去重机制,避免重复引用已见信息
  4. 支持软警告扩展,在预算将尽时提示并切换保守策略
  5. 优先使用 diff 格式输出变更,而非全文重贴
  6. 与其他功能技能协同工作时作为约束层运行

适用场景

TokenKiller 特别适用于处理大型代码仓库或多模块重构任务,当智能体需要在数十个文件中定位问题并进行修改时,传统方式往往因反复读取相同文件而导致 token 浪费。通过设置合理的输出预算和路径聚焦规则,它能引导代理仅访问相关段落,大幅压缩上下文占用。例如在修复跨文件 bug 的场景中,系统会优先通过文件名通配符快速定位目标文件,再结合 grep 精准提取关键函数区域,而非遍历整个目录树。 在调试环节,TokenKiller 可帮助代理高效收敛问题根源。面对模糊错误信息时,它不会盲目抓取全部日志,而是聚焦于错误行号、堆栈顶部及关联配置项,并列出三个最可能的假设供逐一验证。每次只收集支撑单一假设的最小证据集,防止陷入信息过载。这种策略尤其适合分析编译失败、运行时异常或集成测试挂起等问题。 对于文档编写或总结类任务,该工具默认提供简洁结论+关键证据+下一步的结构化输出,避免长篇大论的叙述性文本。用户也可明确要求展开细节,此时系统会在确认必要性后按需拉取 L3 内容。无论是自动化 CI/CD 流水线中的代码审查,还是交互式开发环境中实时辅助编码,TokenKiller 都能在不牺牲准确性的前提下显著提升效率。