极空间全型号上架DeepSeek,满血畅玩!附全网首个API调用方法
大家好,这里是Cherry,喜爱折腾、玩数码,热衷于分享自己的数码玩耍经验~
前言
最近AI真的是火得一塌糊涂阿,出圈到了办公室里的大伯都开始用AI养生了,每天鼓捣一些奇奇怪怪的养生茶。
这不,极空间也紧抓潮流,搭建了极空间专属的满血版DeepSeek服务器,并在全系列产品上架了DeepSeek服务,势必让每一个极空间用户都能体验上专属的DeepSeek服务。
本次更新,不仅我们的AI助手接入DeepSeek,还发布了 开箱即用 的 本地化DeepSeek-R1(7b、14b) 和 在线满血版DeepSeek-v3 应用,纯纯下足血本!
作为走在数码弄潮儿,如果我们不在NAS上折腾一下AI,都不好意思出去说自己的NAS用户。
前期,我也分享了很多利用docker部署安装本地AI的教程,用兴趣的朋友可以回头看一看。但是过来人一句话,docker部署的AI应用,它们在性能利用率
上是要打折扣的,毕竟一层虚拟化掉一层皮,和直接在Linux环境下运行的AI大模型差异很大。
下面,让我们一起看看极空间发布的DeepSeek服务到底如何,并且附赠一个全网独家的极空间本地DeepSeek API调用方法。
一、AI助手升级,满血版Deepseek随意玩
在“帮助与反馈”模块下,全面提升了AI助手的答疑能力,并且提供了基于云端的deepseek的在线对话功能。

1、AI助手更聪明了
先说说AI助手升级,之前的AI助手说实话,的确有点笨笨的,一旦我们问的内容超过知识库范畴,它就会一问三不知。
最新版本的AI助手已经接入的极空间自家的deepseek服务,在围绕极空间私有云自身的功能、使用、答疑上都有不错的效果。

举个例子,我问了更新内容以及docker网口打不开怎么办,它分别提供了查询路径,提供了多种排查Docker端口无法打开的方法,虽然还无法实现自动处理,但是在答疑、检索上比之前已经大大的进步了。

2、满血Deepseek-v3免费畅玩
除了AI助手能力升级外,极空间还提供了全系列NAS可用的DeepSeek在线会话功能。 无论是Arm架构的Q2C、Z2 Pro,还是X86架构的各型号,都可以畅玩满血版DeepSeek,根本不存在旧设备不支持这个问题。
和AI助手只能问极空间自身功能不同,极空间DeepSeek是一款真正为极空间用户提供的云端AI,开箱即用,免安装、免配置,响应速度快,不超时不繁忙。
不过缺点也有,一是模型数量目前仅支持DeepSeek-V3(响应速度比R1更快),二是暂时没保存历史对话,重开应用会清空历史对话。这两点相信在后续的更新中会有所改善,让我们极空间用户可以畅玩AI 对话,甚至可以畅想一下AI绘图,哈哈哈哈哈。

我让极空间的DeepSeek提供了几个图床的容器项目,分别推荐了兰空、荔枝、Piwigo等,都是经典好用的docker项目,并且还很贴心的提供了docker镜像名,感觉我要下岗了有没有!呜呜呜~

二、极空间本地DeepSeek-R1:7b/14b玩耍心得
除了极空间提供了DeepSeek-V3云端服务,以及AI助手外,Z423机型(含标准版、旗舰版)还追加了DeepSeek本地部署应用,可以一键搭建DeepSeek-R1:7b
和DeepSeek-R1:14b
。

两个模型目前测试是无法共存的,一般建议大家直接下7B的使用,足以满足日常所需。如果内存给的比较足一点的,可以下载14B使用。当然,我这以14B进行演示。

14B大概需要占用8G空间,我下载存放在了M.2 Nvme盘里,下载以后这个模型在前台是看不见的,通过SSH查询具体的位置在/data_盘位/ai_models
下。

安装起来真的很方便,鼠标点两下就安装完成,老人小孩也能用。下载完成后,只需要点击启动引擎就可以开始工作了。

1、DeepSeek本地运行小试牛刀
我分别使用Docker 部署了7B的模型,然后极空间DeepSeek使用了14B的模型,问了相同的问题进行比较。
先说结论吧,从结果上来说,14b的答题效果要明显好于7b的,这点毋庸置疑,毕竟更多的参数意味着答案更精准。而这也是极空间本地DeepSeek-R1的核心优势,毕竟自行部署的大部分只能跑7b模型,差距一下子就拉开了!
问题: 我是一个NAS小白,针对NAS的数据安全,你有什么建议吗?提供3点以上的防护策略,要求有具体可操作。
左侧是极空间内置14b模型,右边是Docker部署的7b模型。
1️⃣先看思考过程:
14b的思考内容是围绕NAS这个主题的,内容和NAS关联性强的多,而且层次丰富,提到了数据加密、备份、ACL策略、灾备、网络安全等方面,相对完整。
7b的思考有点类似通用的安全,思考到了端对端加密,访问控制,备份,应急演练,这个更像是一套通用性的数据安全防护策略,和NAS关联性并不高。

2️⃣再看答案:
14b的答案,包括思考中提到的7个部分,每一个部分都和NAS强关联,是NAS上切实可操作的内容,还增加了用户强密码策略、日志等。
7b的答案,很模板化,一共提到6点,但是每一个都是一句话,而且和NAS基本没什么关系。

2、DeepSeek本地性能测试
我分别部署了7B和14B的模型,并且提问,对处理器占用情况进行了对比。
从性能结果上来看,Z423 标准版使用的是纯CPU计算,没有内存和显卡加持,占用情况7B和14B没区别。CPU最高可跑到80%,平均在70%,温度最高可跑到70度,当思考结束输出问题时回落到55度左右。
🔻跑7B的处理器占用情况

🔻跑7B的进程监控情况

🔻跑14B的处理器占用情况

🔻跑14B的进程监控情况

3、极空间本地DeepSeek作为API使用的方法(不用操作,就看看理论)
极空间的本地DeepSeek是用什么跑的,既然可以前端展示,是不是也可以让我们利用成API给容器或者外部使用呢?
抱着好奇心,我登陆了极空间后端一探究竟。
⭐温馨提示:SSH操作异常危险,所有SSH操作需要在十分了解指令的背后才可以使用,否则容易对设备造成损害,建议大家不要轻易尝试。
⭐温馨提示:本方法透出API,仅当前版本适用,不清楚后续极空间是否会修改部署方式,请务必看懂教程再实施。
首先查看一下端口,使用指令netstat -nlpt
查看,其中找到一个zllamas
的应用,占用了127.0.0.1:45463
端口。这个名字一看就是我们的目标了,直接根据PID 822202
去找(PID每次都不同)。

输入指令ps -p 822202 -o args=
查看进程的启动命令。

服务部署在zspace/applicaitons/services/zcomic/DB/aiengine/bin/zllamas
下。(是不是好奇为啥是在极漫画的路径下,我也好奇,猜测后续极空间会推出漫画翻译功能?)
调用了ds.guff
模型,模型的具体位置如下:
/zspace/applications/services/zcomic/DB/aiengine/model/ds.gguf
这个.gguf格式
,是Llama.cpp/GGML的推理框架专用格式。因此我们就可以猜测极空间的deepseek服务zllamas
是基于 Llama.cpp 的定制化服务。
接着,curl一下端口看看,啊呀,没啥实质性内容,那么看看日志。输入指令tail -f /proc/822202/fd/1 2>&1
,查看到了本地的POST内容(需要先对话一次)。
API沿用的标准openai兼容格式localhost/v1/chat/completions
,json
也一样。

那么使用POST API去调用一下标准模板,发现命令行下可以正确返回结果,但是在前端是没有反馈的,说明前端网页也是调用了API。
至此,我们顺利找到了将本地部署的DeepSeek-R1
作为API服务调用的方法了。
🔻POST测试指令
curl -X POST http://localhost:45463/v1/chat/completions
-H "Content-Type: application/json"
-d '{
"model": "/zspace/applications/services/zcomic/DB/aiengine/model/ds.gguf",
"messages": [
{"role": "user", "content": "你好,请介绍你自己"}
],
"stream": false,
"max_tokens": 100
}'
🔻命令行模式下的返回结果。

4、Nginx转发本地端口
接下来,要使用这个本地API,我们只需要搞定localhost:45463
转发到0.0.0.0:45464
就可以了,常规做法就是使用Nginx搞定。
首先,将下面的代码另存为nginx.conf
文件
# /etc/nginx/nginx.conf
user nginx;
worker_processes auto;
error_log /var/log/nginx/error.log notice;
pid /var/run/nginx.pid;
events {
worker_connections 1024;
}
http {
include /etc/nginx/mime.types;
default_type application/octet-stream;
log_format main '$remote_addr - $remote_user [$time_local] "$request" '
'$status $body_bytes_sent "$http_referer" '
'"$http_user_agent" "$http_x_forwarded_for"';
access_log /var/log/nginx/access.log main;
sendfile on;
keepalive_timeout 65;
server {
listen 45464;
server_name _;
location / {
proxy_pass http://127.0.0.1:45463;
proxy_set_header Host $host;
proxy_set_header X-Real-IP $remote_addr;
proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
proxy_set_header X-Forwarded-Proto $scheme;
proxy_http_version 1.1;
proxy_set_header Upgrade $http_upgrade;
proxy_set_header Connection "upgrade";
proxy_read_timeout 86400s;
proxy_send_timeout 86400s;
}
error_page 500 502 503 504 /50x.html;
location = /50x.html {
root /usr/share/nginx/html;
}
}
}
将文件复制到极空间nginx目录下(自己任意创建一个),黑线的不用管,只要红框的。

启动一个nginx:latest
容器,把刚才保存的nginx.conf
文件添加进来,装载到/etc/nginx/nginx.conf
路径里。

把默认的bridge网络更改为host,然后保存部署即可。

部署之后看下日志,正确的话是显示进程的。

5、验证极空间DeepSeek-R1本地API
利用Cherry Studio来验证一下极空间本地部署的DeepSeek-R1是不是被作为API转发出来了。
# 在任意cmd界面输入以下指令
curl 极空间ip:45464
>>>如果输出结果如下表示正确,Error:gzip is not supported by this browser
下面我们来配置Cherry Studio的API,任何厂家里去添加都可以,毕竟是兼容的。
1️⃣API地址:http://极空间 IP:45464
2️⃣模型:/zspace/applications/services/zcomic/DB/aiengine/model/ds.gguf
3️⃣API KEY:空或任意字符
🔻我的配置截图,可参照。

配置完成以后,点一下连接测试一下。

接着我在Cherry Studio中@了极空间本地部署的deepseek-r1,思考的同时验证了一下极空间的CPU使用量,说明调用成功了。
如果是公网的,只需要配置DDNS并在路由器转发出去即可。

总结
在体验了极空间本次上架的DeepSeek服务后,不得不感慨AI之于NAS的妙用。
除了前期我们很熟悉的AI相册功能涉及到大模型外,本地化AI、在线版满血AI分工合作,既能在满足隐私性要求,又能实现高性能对话,后期直接加载NAS内的知识库文档,甚至利用Agent操作NAS也不是不可能。
作者声明本文无利益相关,欢迎值友理性交流,和谐讨论~

雨的心跳
校验提示文案
拉德里萨瓦
校验提示文案
纹身小白兔
校验提示文案
值友3079579065
你是懂中文的
校验提示文案
值友5826105926
校验提示文案
tmfc
校验提示文案
brendon1
校验提示文案
张大妈第9527号粉
校验提示文案
tmfc
校验提示文案
值友4557908491
校验提示文案
尚在捡垃圾
校验提示文案
隔壁王da爷
校验提示文案
织布的沙棘汁
校验提示文案
值友8322293309
校验提示文案
zhgx
校验提示文案
darcylu
校验提示文案
不再迷失
校验提示文案
tang251
校验提示文案
darcylu
校验提示文案
zhgx
校验提示文案
雨的心跳
校验提示文案
tang251
校验提示文案
值友3079579065
你是懂中文的
校验提示文案
值友8322293309
校验提示文案
织布的沙棘汁
校验提示文案
隔壁王da爷
校验提示文案
尚在捡垃圾
校验提示文案
值友4557908491
校验提示文案
不再迷失
校验提示文案
值友5826105926
校验提示文案
tmfc
校验提示文案
tmfc
校验提示文案
brendon1
校验提示文案
张大妈第9527号粉
校验提示文案
拉德里萨瓦
校验提示文案
纹身小白兔
校验提示文案