Windows Local Embedding

在 Windows 上为 OpenClaw 配置本地 embedding / 本地记忆检索时使用。适用于:下载并接入 `nomic-embed-text-v1.5.Q8_0.gguf`、把 `memorySearch.provider` 改成 `local`、检查 `openclaw memory status...

安装

概览

什么是Windows Local Embedding

Windows Local Embedding 是一个专为 Windows 系统设计的 OpenClaw 本地嵌入配置工具,旨在帮助用户快速搭建基于本地 GGUF 模型的记忆检索功能。该工具聚焦于解决用户在 Windows 环境下最常见的配置难题,如路径转义、依赖缺失和重启生效等细节问题。其核心目标是让虾宝(OpenClaw)在 Windows 上顺利启用本地 embedding 能力,从而提升记忆检索的响应速度与隐私性。与通用方案不同,此技能优先确保最小可用链路跑通,避免陷入复杂外部向量数据库的配置陷阱。通过提供清晰的下载验证、依赖安装、配置文件修改和重启确认流程,显著降低技术门槛。

核心功能特点

  1. 专为 Windows 环境优化,解决路径转义、依赖安装和重启生效等常见问题
  2. 引导用户下载并验证正确的 GGUF 模型文件(nomic-embed-text-v1.5.Q8_0.gguf,约139MB)
  3. 指导安装必要的 node-llama-cpp 依赖(应用商店版 OpenClaw 必需步骤)
  4. 提供 openclaw.json 配置模板,正确设置 memorySearch.provider 为 local
  5. 包含验证脚本,通过调用 doctor.memory.status API 确认本地 embedding 是否成功加载

适用场景

本工具最适合那些正在使用 Windows 系统运行虾宝(OpenClaw),并希望为其配置本地记忆检索功能的开发者或普通用户。如果你的目标不是接入复杂的外部向量数据库,而是让 OpenClaw 自带的记忆搜索功能直接使用本地 GGUF 模型进行语义匹配,那么这正是你需要的解决方案。尤其当你遇到‘本地 embedding 怎么配’‘模型下载了但没生效’‘provider 不是 local’等问题时,本技能将提供精准排查路径。它适用于希望在不依赖网络服务的情况下,实现更快、更私密记忆检索的场景。装好之后,记忆检索底层将改为本地运行,当龙虾需要回忆旧事时,会通过本地 embedding 高效地从 MEMORY.md 和 memory/ 目录中捞取相关内容,而无需担心云端延迟或数据外泄。