NAS上部署Deepseek?效果如何?速度太慢如何解决?
这段时间Deepseek可谓是非常热闹啊,手机、汽车、电视、键盘、鼠标等厂商都纷纷表示自己要接入Deepseek。那咱们这种玩NAS的,是不是也可以给自己的NAS接入Deepseek呢?下面咱们就一起来看看在自己的nas上部署Deepseek是种什么样的体验吧

本次演示设备是来自绿联的DXP6800 Pro,选用这款NAS的原因主要是采用了Intel I5-1235U的处理器,性能相对来说比较强悍,另外带有一条PCIe槽位,后续如果能用上独显来进行大模型的推理也不是不可能。
本地部署过程以及使用体验
首先打开咱们的NAS界面,进入Docker界面。这里需要部署Open WebUI界面。
绿联的Docker支持使用Docker Compose快速部署容器,我们只需要输入下面这行代码即可一键部署。
services:
open-webui:
container_name: open-webui
image: ghcr.io/open-webui/open-webui:ollama # 镜像名
#加速器配置建议添加 https://docker.nju.edu.cn/
restart: always # 重启策略
ports:
- "5000:8080" # Web 服务访问端口
volumes:
- ./ollama:/root/.ollama # 存储与 ollama 相关的数据
- ./open-webui:/app/backend/data # 存储 Web UI 的后台数据
如果你使用的NAS不支持Docker Compose快速部署,也可以使用Docker容器进行部署。

在Docker中选择自定义拉取,输入这行代码“ghcr.io/open-webui/open-webui:ollama”,等待拉取完成就行。

部署过程中的端口设置这边就不赘述了,只要端口不冲突就行,映射文件夹路径如图所示即可。

部署完成open-webui之后,输入NAS的IP+端口号即可访问Open-webui界面

进入页面之后需要设置下电子邮箱以及密码,这部分不涉及到联网,这个邮箱以及密码都是保存在本地,无任何联网校验功能。
登录进来之后,这里目前是没有任何的模型可以使用的,因为我们这时候只是部署了一个webui界面,要真正使用还需要部署模型。但看到这个界面上并没有任何的模型供给我们去选择部署,这时候要怎么办呢?

我们打开ollama的官网,点击左上角的Models,就能进入选择模型界面

排在第一位的就是Deepseek-r1了,这里提供有1.5b、7b、8b、14b、32b、70b、671b几种不同规格的模型。
我手上的DXP6800 Pro安装了24G的内存,所以咱们这里就部署下1.5b和7b的模型,其它几个太大了,也部署不上。

选择合适大小的模型,复制右侧这行代码,返回我们的webui界面

在搜索框处输入刚刚复制的这行代码,选择从Ollama.com拉取,等待拉取完成就可以使用了。

或者也可以进入终端页面,输入刚刚复制的这段代码也可以拉取模型

在提问框中输入问题,就可以开始对话啦。当然受限于NAS的性能,这个速度就比较慢了。

这是7b模型推理出来的内容,相较于1.5b确实是深度了不少。
那有的小伙伴会说了,你这个NAS里面部署的这玩意速度这么慢,有什么用?还能不能更快一点?
那受限于目前成品NAS的性能,本地部署想要更快一点多少有点不可能了,但咱们还能用API啊!
更快 更流畅的方式

进入硅基流动官网,注册账号

选择API秘钥,新建API秘钥

进入硅基流动的模型广场,选择一个你想要使用的模型

点击API文档,进入新的页面,复制这一串URL代码

返回咱们之前部署的open webui界面,点击右上角的头像处,选择管理员面板

点击上方的设置中的外部连接

打开OpenAI API开关,新建一个API连接

这里的URL就是上面API文档里面的那个,复制到v1处即可,再粘贴咱们之前新建的密钥,复制到密钥处。

模型ID在API文档下方也能找到,选择你想用的模型ID输入进去就行。

在模型选择处就能看到咱们刚刚新建的API模型了

输入需要提问的问题后就能开始问答啦~速度这方面就取决于Deepseek官方的速度了,与本地的算力无关。

当然需要注意的是,API连接的方式也是需要费用的,在硅基流动中进行充值即可,目前注册送14元,可以玩一段时间了
最后
如果想要在本地较为流畅的使用大模型,还是得使用更强性能的设备。如果是自组的话,可以考虑用上独显,使用Docker也能进行部署。本地部署的话可以规避一些数据隐私问题,还能使用一些特定的模型,用处也是多多~

那咱们这篇文章中使用的绿联DXP6800 Pro自带PCIe槽位,后续看看有机会折腾上张独显玩一玩!
当然如果不想升级设备本地部署,也能通过API的形式调用云端算力,只不过花点小钱罢了~
那么好了,以上就是本篇文章的全部内容啦
希望对你有所帮助
