Obsidian+Ollama+Copilot搭建本地知识库大模型
为什么搭建?
想搭建自己的本地大模型知识库,希望AI助手能够成为我的知识管家。
电脑配置
配置参数如下的笔记本,运行起来ali 7b模型生成速度太慢。 处理器 11th Gen Intel(R) Core(TM) i5-1135G7 机带 RAM 16.0 GB (15.7 GB 可用)
配置参数如下的笔记本,运行起来ali 7b模型速度可以。 CPU:i5 13600KF 4600ti
大模型详细搭建步骤
- 下载Ollama
- 下载大模型
- Copilot插件配置一下
实际使用感受
电脑配置不行给出回答会很慢,效果并不理想。即使电脑配置可以,基于知识库的问答效果依然不尽人意。
参考
Ollama 本地运行的 LLM 模型 Windows(Win10、Win11)本地部署开源大模型保姆级教程_本地部署大模型-CSDN博客 本地部署大模型?Ollama 部署和实战,看这篇就够了_ollama部署-CSDN博客