Chromadb Memory Pub

使用ChromaDB和本地Ollama嵌入实现长期记忆。自动召回每轮注入相关上下文。无需云端API,完全本地部署。

安装

概览

什么是Chromadb Memory Pub

ChromaDB Memory Pub 是一款专为本地部署设计的长期语义记忆插件,基于 ChromaDB 向量数据库与本地 Ollama 嵌入模型构建。该工具通过在每次对话轮次前自动检索并注入与用户消息最相关的历史上下文,显著增强智能代理的连贯性与个性化响应能力。其核心理念是‘零云依赖’——所有数据处理、向量化和存储均在本地完成,确保隐私安全且无需订阅任何云端 API 服务。

插件通过调用本地运行的 Ollama(使用 nomic-embed-text 模型)对用户输入进行向量化,随后在 ChromaDB 中执行相似度搜索,筛选出高于设定阈值的相关记忆片段。这些片段以结构化标签形式嵌入到代理的上下文窗口中,使模型能够基于过往交互动态调整回答策略,实现真正意义上的‘记忆延续’。整个过程无需联网,完全由本地基础设施支撑。

此外,该插件不仅支持全自动上下文召回机制,还提供了手动语义搜索工具 `chromadb_search`,允许开发者或用户在必要时主动查询特定知识库内容。配置灵活,可通过 JSON 文件自定义 ChromaDB 地址、集合名称、嵌入模型及召回参数,适配多种本地部署环境。对于注重数据主权与低延迟响应的应用场景而言,这是一个轻量而高效的解决方案。

核心功能特点

  1. 全自动每轮对话注入相关历史上下文,提升回复连贯性
  2. 基于本地 Ollama 和 ChromaDB 实现完全离线运行,无云端依赖
  3. 支持手动语义搜索工具 chromadb_search,提供灵活查询方式
  4. 可配置最小相似度分数与最大召回数量,精准控制记忆干扰
  5. 采用标准向量索引机制,兼容任意文档预处理流水线
  6. 极低 token 开销,对大上下文窗口影响微乎其微

适用场景

ChromaDB Memory Pub 特别适用于需要持续学习用户偏好、维护跨会话一致性的本地化 AI 应用。例如,在个人知识管理助手、定制化客服机器人或企业内部智能问答系统中,该插件能帮助模型记住用户的过往提问习惯、项目细节甚至情感倾向,从而生成更具针对性和个性化的回应。由于全程本地化处理,它也非常适合对数据敏感的医疗咨询、法律咨询等专业领域,避免敏感信息外泄风险。

对于开发者在搭建私有 LLM 代理时,此插件可作为即插即用的记忆模块,无需重构现有架构即可赋予系统长期记忆能力。无论是构建多轮对话系统、个性化推荐引擎,还是自动化工作流中的决策支持,它都能显著减少重复提问、提升用户体验。尤其当结合本地部署的大语言模型(如 Mistral、Llama3 等)时,形成端到端的私有化智能解决方案成为可能。

此外,该工具也适合技术爱好者用于实验性研究,比如探索不同嵌入模型对记忆效果的影响、测试向量数据库在不同规模语料下的性能表现,或是开发具备自我演进能力的认知代理原型。由于其开放配置接口,用户可根据实际需求调整召回策略,平衡‘记忆丰富度’与‘噪声过滤’之间的关系,实现高度定制化的智能交互体验。