TokFlow

Token 消耗监控与优化分析工具。查询 LLM 模型用量、费用、各渠道余额、提问方式分析与优化建议。当用户询问 token 消耗、模型费用、优化建议、渠道余额、提问方式优化等问题时使用此技能。

安装

概览

什么是TokFlow

TokFlow 是一款专为本地运行的 LLM(大型语言模型)应用设计的 Token 消耗监控与优化分析工具,主要服务于使用 OpenClaw 等框架搭建的 AI 对话系统。它通过自动追踪所有付费模型的使用情况,帮助用户清晰掌握 Token 消耗、费用支出以及各渠道账户余额等关键信息。TokFlow 不仅能提供实时数据总览,还能深入分析提问方式、调用模式等细节,并生成智能优化建议,从而显著降低 AI 服务的使用成本。其核心优势在于本地部署、数据精准且支持多维度分析,尤其适合对成本控制有较高要求的开发者和企业用户。 该工具通过调用本地 API(默认端口 8001)提供服务,所有查询均基于 OpenClaw 生成的 JSONL 会话日志文件进行实时同步计算,确保数据的准确性和时效性。无论是查看今日或本月的整体开销,还是分析单个模型的效率表现,TokFlow 都能以结构化的 JSON 格式返回详细结果。此外,它特别引入了‘提问方式分析’功能,可统计提问轮次、平均长度及分布情况,并预估通过优化提问策略可节省的费用,为提升交互效率提供了量化依据。 TokFlow 的设计理念是让用户在不依赖第三方平台的前提下,自主掌控 AI 资源的使用状况。它既适用于个人开发者调试模型性能,也适合团队协作环境中进行成本管理与预算规划。通过定期生成优化报告和建议,用户可以持续调整模型选择、缓存策略乃至对话设计,实现更经济高效的 LLM 应用运行。

核心功能特点

  1. 实时监控 LLM 模型的 Token 消耗与费用支出,支持按日/月统计总览数据
  2. 提供各付费渠道(如 DeepSeek、硅基流动等)的实时账户余额查询
  3. 内置智能优化引擎,可生成模型替换、缓存优化及提问方式优化的具体建议
  4. 支持提问方式深度分析,包括轮次、平均长度、分布情况及潜在节省估算
  5. 基于历史会话日志生成详细的费用趋势、模型对比和异常检测报告
  6. 本地运行,数据来源于 OpenClaw 原始 JSONL 文件,保障隐私与安全

适用场景

TokFlow 特别适合那些在本地部署 LLM 应用并希望精细化管理 AI 成本的场景。例如,一个团队正在使用多个不同供应商的模型(如 minimax、deepseek、siliconflow),他们可以通过 TokFlow 快速查看所有模型的月度费用排名,识别出高消耗但低效的模型,并据此决定是否切换至性价比更高的替代方案。这种跨渠道的统一视图极大简化了多云环境下的资源调度决策。 另一个典型应用场景是开发者需要评估用户提问质量对 Token 消耗的影响。通过调用 prompt-stats 接口,TokFlow 可以展示平均提问长度、轮次分布等信息,帮助产品经理或 UX 设计师发现冗余对话路径。结合系统提供的‘提问方式优化’建议,团队能够引导用户使用更简洁的表达,从而减少不必要的 Token 浪费,同时提升用户体验。 对于频繁调用 LLM 服务的自动化脚本或微服务架构而言,TokFlow 的成本预警和优化建议功能尤为重要。当某类请求突然激增导致费用飙升时,系统能及时标记异常并推荐启用缓存或合并请求等策略。长期来看,这些细粒度的控制手段有助于构建可持续、低成本的 AI 基础设施,避免因盲目扩展而陷入预算失控的风险。