Multi-Brain Protocol

在主代理响应前,并行运行Kimi K2.5和GPT 5.3 Codex,注入双方观点以增强认知多样性。

安装

概览

什么是Multi-Brain Protocol

Multi-Brain Protocol 是一种专为 AI 智能体设计的认知增强机制,通过在主代理响应前并行调用多个大型语言模型(LLM),为单一决策注入多元视角。其核心原理是在用户输入以 `mb` 开头时,自动触发一个系统级钩子(hook),同时向 Kimi K2.5 和 GPT 5.3 Codex 发起请求,将两者的分析结果作为上下文信息注入到主代理 Claude Opus 4.6 的推理环境中。最终,主代理综合三方观点生成回应,整个过程对用户完全透明,无需额外操作。这种架构不仅提升了决策的多样性,还显著增强了系统的抗偏见能力与鲁棒性。 该协议采用模块化设计,通过 `turn:before` 钩子实现自动化执行,确保流程无缝集成。用户只需完成简单的安装配置:设置 Moonshot API 密钥、安装 Codex CLI 并完成认证,再在 openclaw.json 中启用相关钩子即可。触发方式灵活,支持关键词触发(默认)、混合模式(长消息自动激活)和全自动化三种模式,满足不同使用场景下的效率与成本考量。值得一提的是,即使某一 LLM 服务出现异常,系统仍保持‘故障开放’原则,其他模型的结果仍可正常参与决策,保障服务连续性。 从技术角度看,Multi-Brain Protocol 巧妙利用了并行调用与上下文注入机制,在不增加用户交互负担的前提下,实现了多模型协同推理。Kimi K2.5 提供基于大规模中文语料的独特视角,而 GPT 5.3 Codex 则带来英文训练数据中的逻辑结构与表达习惯,两者与主代理形成异构互补。这种‘三脑协作’模式特别适合需要深度思考、复杂判断或高可靠性要求的对话任务,如战略规划、风险评估与创意构思等场景。

核心功能特点

  1. 并行调用 Kimi K2.5 与 GPT 5.3 Codex,为主代理注入双重视角
  2. 基于关键词或长度自动触发,支持手动与半自动两种模式
  3. 系统级钩子强制执行,无需智能体主动适配协议
  4. 故障开放设计,任一 LLM 失败不影响整体功能运行
  5. 所有外部 AI 行为对终端用户不可见,保持对话自然流畅

适用场景

Multi-Brain Protocol 特别适用于那些需要超越单一模型局限性的高级推理任务。例如在企业战略讨论中,当团队面临定价调整、市场进入或产品迭代等重大决策时,传统单模型可能受限于训练数据的倾向性或思维定式。此时启用 Multi-Brain 可让 Kimi K2.5 从本地化运营角度提出成本敏感型建议,Codex 则可能强调全球市场的竞争格局与用户行为差异,而主代理综合三者意见后给出更平衡、更具前瞻性的方案。这种机制有效降低了群体盲区,提升了决策质量。 另一个典型应用场景是教育辅导或学术研究支持。当学生或研究人员提出复杂问题时,系统不仅能提供标准答案,还能展示不同模型对同一问题的解读路径——比如 Kimi 倾向于结构化知识梳理,Codex 擅长跨领域类比推理,而主代理则整合成易于理解的教学内容。这相当于构建了一个动态的认知导师团队,帮助学生培养批判性思维与多角度分析能力。此外,在法律咨询、医疗诊断辅助等专业领域,多视角交叉验证也能显著降低误判风险,增强建议的可信度与合规性。