本着学习实践的态度,我们也来玩一玩本地部署DeepSeek,并应用在Obisidian中。虽然用处并没有想象中那么大,但聊胜于无。
1. 部署本地DeepSeek
首先需要部署本地聊天DeepSeek。这里我们参考网上教程,需要先安装这两个软件:Ollama和AnythingLLM。下载地址为:
- Ollama:https://ollama.com
- AnythingLLM:https://anythingllm.com/desktop
1.1 下载DeepSeek模型
我们通过Ollama来下载DeepSeek模型,在https://ollama.com/search找到想用的模型,考虑到个人电脑GPU性能有限,建议下载小一些的模型。大模型不仅运行速度巨慢,有时可能根本无法正常运作。这里我们使用的是14b的,已经能够满足日常使用。

复制右侧的ollama指令,并在控制台执行,等待下载完成即可。

2. Obsidian安装Copilot插件
这一步应该不用详细介绍。

3. Copilot配置DeepSeek
打开Obsidian的设置,选中Copilot,在Model添加DeepSeek模型。
- 点击【Add Custom Model】;
- 配置DeepSeek模型信息:
其中,
Model Name
:填入之前下载的DeepSeek模型名(此处为deepseek-r1:14bProvider
:选择Ollama;Base URL
:输入http://127.0.0.1:11434
(默认地址);API Key
:较为特殊,需使用AnythingLLM生成(这一项必须要填,否则无法正常使用聊天)。
配置完成之后,在聊天中中使用DeepSeek进行对话。
