本着学习实践的态度,我们也来玩一玩本地部署DeepSeek,并应用在Obisidian中。虽然用处并没有想象中那么大,但聊胜于无。

1. 部署本地DeepSeek

首先需要部署本地聊天DeepSeek。这里我们参考网上教程,需要先安装这两个软件:Ollama和AnythingLLM。下载地址为:

1.1 下载DeepSeek模型

我们通过Ollama来下载DeepSeek模型,在https://ollama.com/search找到想用的模型,考虑到个人电脑GPU性能有限,建议下载小一些的模型。大模型不仅运行速度巨慢,有时可能根本无法正常运作。这里我们使用的是14b的,已经能够满足日常使用。

复制右侧的ollama指令,并在控制台执行,等待下载完成即可。

2. Obsidian安装Copilot插件

这一步应该不用详细介绍。

3. Copilot配置DeepSeek

打开Obsidian的设置,选中Copilot,在Model添加DeepSeek模型。

  1. 点击【Add Custom Model】;
  2. 配置DeepSeek模型信息:

    其中,

    • Model Name:填入之前下载的DeepSeek模型名(此处为deepseek-r1:14b
    • Provider:选择Ollama;
    • Base URL:输入http://127.0.0.1:11434(默认地址);
    • API Key:较为特殊,需使用AnythingLLM生成(这一项必须要填,否则无法正常使用聊天)。

配置完成之后,在聊天中中使用DeepSeek进行对话。

Avatar photo

By xinwuya

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注