Obsidian 插件篇 -Copilot 搭建本地知识库大模型

来源

  • 触发点:好奇搭建本地AI大模型,由此而来
  • 首次记录:2025-02-24
  • 作者:huan

洞见

本篇文章主要介绍如何使用 Obsidian+Ollama+Copilot 搭建本地知识库大模型,细节部分可以参考提及的链接。原文见于:Obsidian插件篇-Copilot搭建本地知识库大模型

详情

为什么搭建

想搭建自己的本地大模型知识库,希望 AI 集成到Obsidian 中,真正成为我的得力助手。

配置以及实际体验

参数如下的笔记本,运行起来 ali 7b 模型生成速度太慢。

  • 处理器:11th Gen Intel(R) Core(TM) i5-1135G7
  • 机带 RAM:16.0 GB (15.7 GB 可用)

参数如下的台式机,运行起来 ali 7b 模型速度可以。

  • CPU:i5 13600KF 4060ti

满血版的 Deepseek 家用配置部署不起来,7b、8b 版本还不如使用网页版算了。

详细搭建步骤

  • 下载 Ollama
  • 下载大模型
  • Copilot 插件配置一下

结论

  • 电脑配置不行给出回答会很慢,效果并不理想。
  • 即使电脑配置可以,基于知识库的问答效果依然不尽人意。建议再等等,等等党永不言败。

演化日志

  • v0.1 (2025-02-24):初始版本
  • v0.2 (2025-02-27):补充配置信息、参考链接
  • v0.3 (2025-10-27):补充来源、洞见、演化日志,完善笔记结构

附件参考

待办事项

  • 文章实践细节缺失严重,需要补充完善
  • 大半年时间已经过去,需要实践下本地部署效果,更新认知