以前在 Obsidian 中搭建知识库来运行 AI 助手,但由于本地电脑的性能有限,无法加载较大的模型,效果并不理想,然后就一直闲置。后来 Ollama 推出了云模型,尝试使用它运行云端模型,发现运行顺畅、效果显著。于是果断停用了 DeepSeek 的 API,改为 Ollama 的云模型,至今使用感受良好。
Obsidian 添加 Ollama 云模型
站点水印:www.onemuggle.com
使用 Ollama 云模型的时候,注意是否是私有数据!!!避免数据被公开哈
安装Copilot
- 安装 Obsidian
- 打开 Obsidian 软件,点击左下角设置按钮,点击 第三方插件,点击 关闭安全模式
- 点击 社区插件市场的 浏览
- 搜索Copilot后 点击安装
Ollama安装 bge-m3
- 打开Ollama软件
- 搜索 bge-m3 并点击下载箭头
设置Copilot
- 打开 Obsidian 软件,点击左下角设置按钮,点击 第三方插件,点击 Copilot
- 点击 Model ,点击 Add Model
- Model Name 输入 Ollama云模型【qwen3-coder:480b-cloud】
- Provider 选择 Ollama
- 点击 Add Model (这三个是可以勾选的:Reasoning、Vision、Websearch)
- 还是在 Model 页面,添加 Embedding Models ,点击Add Model
- Model Name 输入
bge-m3 - Provider 选择 Ollama
- 点击 Add Model (需要 Ollama已安装 bge-m3)
- 点击 QA ,Embedding Model选择 bge-m3
使用方式
- 通过Open Copilot Chat 来对文章进行总结修改等操作
- 可更换多个模型,Ollama的云模型都是支持的(但是也是公开的,私有数据还是建议走本地的模型哈)
- 新建会话点击右边的 New Chat
OneMuggle