Ollama on Windows — Setup, CORS Fix & Custom Models

完整 Windows 安装指南:安装 Ollama、修复 Web 应用 CORS 头、使用 Modelfile 创建自定义模型、以及与桌面 AI 集成。

安装

概览

什么是Ollama on Windows — Setup, CORS Fix & Custom Models

Ollama 是一款专为本地运行大型语言模型(LLM)而设计的轻量级工具,尤其适合在 Windows 系统上快速部署和实验各类 AI 模型。它通过简洁的命令行接口和图形化界面支持用户一键下载、启动和管理多种开源大模型,无需复杂配置即可实现本地推理。对于开发者而言,Ollama 提供了高度可定制的能力,允许通过 Modelfile 文件定义模型参数、系统提示词和依赖项,从而轻松创建专属的 AI 助手或微调版本。此外,该工具还支持与主流桌面应用集成,如 Obsidian、Typora 等 Markdown 编辑器,以及 VS Code 插件,极大提升了个人知识管理和编程辅助的效率。尽管默认配置下 Web UI 存在跨域限制,但通过简单的配置文件修改即可解决 CORS 问题,使远程或嵌入式前端应用能够安全调用本地模型服务。整体来看,Ollama 在保持低资源占用的同时,兼顾了易用性与灵活性,是 Windows 平台上搭建私有化 AI 工作流的理想选择。

核心功能特点

  1. 支持在 Windows 系统上快速安装并运行多种开源大语言模型
  2. 提供 Modelfile 机制用于自定义模型参数、系统提示词及依赖关系
  3. 内置 Web UI 并支持 CORS 配置修复,便于构建本地 AI 应用
  4. 可通过命令行或图形界面管理模型生命周期(下载、删除、启动)
  5. 兼容主流桌面软件集成,如 Obsidian、Typora 和 VS Code 插件生态

适用场景

Ollama 特别适合需要在本地环境进行 AI 模型实验、开发或部署的场景。对于数据隐私敏感的企业用户或研究人员,Ollama 允许完全离线运行模型,避免将数据上传至云端,满足合规要求。开发者可以利用其 API 快速原型化聊天机器人、代码生成工具或自动化脚本助手,而无需依赖外部服务。教育领域也可借助 Ollama 让学生在本地环境中学习 LLM 原理与实践操作,降低硬件门槛。此外,内容创作者和知识工作者常使用 Obsidian 等工具整理笔记,通过集成 Ollama 插件,可在写作时实时调用本地模型进行头脑风暴、润色或摘要生成,显著提升创作效率。无论是个人项目还是小型团队内部工具开发,Ollama 都因其轻量、灵活且易于扩展的特性成为构建私有化智能系统的首选平台。