Obsidian 插件篇 -Copilot 搭建本地知识库大模型
来源
- 触发点:好奇搭建本地AI大模型,由此而来
- 首次记录:2025-02-24
- 作者:huan
洞见
本篇文章主要介绍如何使用 Obsidian+Ollama+Copilot 搭建本地知识库大模型,细节部分可以参考提及的链接。原文见于:Obsidian插件篇-Copilot搭建本地知识库大模型 。
详情
为什么搭建
想搭建自己的本地大模型知识库,希望 AI 集成到Obsidian 中,真正成为我的得力助手。
配置以及实际体验
参数如下的笔记本,运行起来 ali 7b 模型生成速度太慢。
- 处理器:11th Gen Intel(R) Core(TM) i5-1135G7
- 机带 RAM:16.0 GB (15.7 GB 可用)
参数如下的台式机,运行起来 ali 7b 模型速度可以。
- CPU:i5 13600KF 4060ti
满血版的 Deepseek 家用配置部署不起来,7b、8b 版本还不如使用网页版算了。
详细搭建步骤
- 下载 Ollama
- 下载大模型
- Copilot 插件配置一下
结论
- 电脑配置不行给出回答会很慢,效果并不理想。
- 即使电脑配置可以,基于知识库的问答效果依然不尽人意。建议再等等,等等党永不言败。
演化日志
- v0.1 (2025-02-24):初始版本
- v0.2 (2025-02-27):补充配置信息、参考链接
- v0.3 (2025-10-27):补充来源、洞见、演化日志,完善笔记结构
附件参考
- Ollama 本地运行的 LLM 模型
- Windows(Win10、Win11)本地部署开源大模型保姆级教程_本地部署大模型-CSDN博客
- 本地部署大模型?Ollama 部署和实战,看这篇就够了_ollama部署-CSDN博客
待办事项
- 文章实践细节缺失严重,需要补充完善
- 大半年时间已经过去,需要实践下本地部署效果,更新认知