Obsidian+Ollama+Copilot搭建本地知识库大模型

为什么搭建?

想搭建自己的本地大模型知识库,希望AI助手能够成为我的知识管家。

电脑配置

配置参数如下的笔记本,运行起来ali 7b模型生成速度太慢。 处理器 11th Gen Intel(R) Core(TM) i5-1135G7 机带 RAM 16.0 GB (15.7 GB 可用)

配置参数如下的笔记本,运行起来ali 7b模型速度可以。 CPU:i5 13600KF 4600ti

大模型详细搭建步骤

  • 下载Ollama
  • 下载大模型
  • Copilot插件配置一下

实际使用感受

电脑配置不行给出回答会很慢,效果并不理想。即使电脑配置可以,基于知识库的问答效果依然不尽人意。

参考

Ollama 本地运行的 LLM 模型 Windows(Win10、Win11)本地部署开源大模型保姆级教程_本地部署大模型-CSDN博客 本地部署大模型?Ollama 部署和实战,看这篇就够了_ollama部署-CSDN博客