Add Siliconflow Provider 1

为 OpenClaw 配置硅基流动 (SiliconFlow) 作为模型源。SiliconFlow 是国内领先的 AI 模型推理平台,提供 98+ 个 chat 模型,包含多个免费模型(Qwen3-8B、DeepSeek-R1-8B 等)。使用标准 OpenAI 协议(openai-completions)。包含 provider 注册、模型定义、别名配置、…

安装

概览

硅基流动(SiliconFlow)是国内领先的 AI 模型推理平台,提供超过 98 个聊天模型,涵盖 Qwen、DeepSeek、Kimi、GLM、MiniMax 等主流系列。其核心优势在于完全兼容 OpenAI 的 `openai-completions` 协议,开发者无需修改代码即可快速接入。该平台不仅支持多个完全免费的商用模型(如 Qwen3-8B 和 DeepSeek-R1-8B),还以极具竞争力的价格提供高端模型服务——旗舰级模型的价格仅为官方定价的 30% 到 50%。用户通过一个 API Key 即可统一调用所有模型,极大简化了多源调用的复杂度。对于希望降低 AI 应用成本或快速扩展模型能力的团队而言,SiliconFlow 是一个高效且经济的选择。

核心功能特点

  1. 提供 98+ 个主流 chat 模型,涵盖 Qwen、DeepSeek、Kimi、GLM 等顶级系列
  2. 完全兼容 OpenAI 的 openai-completions 协议,即插即用
  3. 包含多个完全免费商用模型(Qwen3-8B、DeepSeek-R1-8B 等),支持无限使用
  4. 付费模型价格低至官方 30%-50%,性价比极高
  5. 一个 API Key 可访问全部模型,统一管理

适用场景

SiliconFlow 特别适合需要快速集成多种大语言模型并控制成本的场景。对于开发者和企业来说,无论是构建智能客服系统、内容生成工具,还是进行多模型对比测试,都可以通过单一接口高效调用不同能力层级的模型。免费模型尤其适合作为 fallback 策略的一部分,用于保障基础服务的稳定性;而高性价比的 MoE 架构模型(如 Qwen3-30B-A3B)则非常适合对性能要求较高但预算有限的项目。此外,Pro 加速版模型(如 Kimi-K2.5)能够满足对响应速度和推理质量有严苛要求的实时应用场景。无论是初创公司尝试 MVP 验证,还是成熟产品寻求降本增效,SiliconFlow 都能提供灵活且可靠的解决方案。