OpenClaw CLI Bridge

将本地 Codex、Gemini 和 Claude Code CLI 桥接至 OpenClaw 作为 vLLM 模型提供方。支持 /cli-* 斜杠命令即时切换模型(/cli-sonn...

安装

概览

OpenClaw CLI Bridge 是一个创新的 AI 工具桥接系统,旨在将本地安装的 Codex、Gemini 和 Claude Code 命令行接口(CLI)统一桥接到 OpenClaw 平台,作为其 vLLM 模型提供方。该工具通过三个阶段实现无缝集成:第一阶段利用现有 `~/.codex/auth.json` 中的认证令牌注册 `openai-codex` 提供商,无需重新登录;第二阶段建立一个本地 OpenAI 兼容的 HTTP 代理(监听于 `127.0.0.1:31337`),负责将来自 OpenClaw 的 vLLM 模型调用路由到对应的本地 CLI 子进程;第三阶段则引入了强大的斜杠命令功能,允许授权用户在聊天界面中即时切换模型。这种设计巧妙地解决了长会话提示可能导致的 `E2BIG` 错误问题,通过将提示内容经由 stdin 或临时文件传递,而非作为命令行参数,确保了系统的稳定性和可靠性。

核心功能特点

  1. 支持将本地 Codex、Gemini 和 Claude Code CLI 桥接为 OpenClaw 的 vLLM 模型源
  2. 三阶段架构:自动注册 Codex 认证、建立本地 OpenAI 兼容代理、启用斜杠命令切换
  3. 提供九种一键切换模型的斜杠命令(如 /cli-sonnet, /cli-gemini-flash)及回退与测试功能
  4. 通过 stdin 或临时文件传递提示,避免因超长参数引发的 E2BIG 错误

适用场景

OpenClaw CLI Bridge 特别适合需要在同一开发环境中灵活使用多种主流 AI 模型的工作流。对于开发者而言,它允许在 OpenClaw 平台内无缝地在 Claude、Gemini 和 Codex 等本地已安装且认证的 AI 工具之间快速切换,无需反复登录或切换上下文,极大提升了编码、调试和文档编写等任务的效率。例如,一个工程师可以在处理复杂逻辑时使用 Claude Sonnet 进行深度推理,而在需要快速原型设计时切换到 Gemini Flash,整个过程在单一界面内完成。此外,该工具对长会话的支持至关重要,它能安全地处理包含大量代码片段或详细说明的长提示,避免了传统 CLI 参数长度限制带来的困扰。无论是个人开发者还是团队协作环境,只要希望整合本地 AI 能力并统一管理模型访问,OpenClaw CLI Bridge 都能提供一个高效、稳定且用户友好的解决方案。