全面Ai时代来临?零刻SER9 Pro AMD 锐龙 AI9 365深度全面测试!
大家好,我是老高,本期我们折腾下零刻SER9Pro AI365迷你电脑,往期我们做过SER9 HX370 大哥,这期我们看下它的小弟365的表现。

首先看下它俩的主要区别,365少了2核/4线程,0.1GHz的睿频,2MB的二级缓存,核显变为880M少了4个核心,少了最高7 TOPS
整体价格少了6张毛爷爷,不得不佩服苏妈深的她表舅老黄的真传啊,刀法日渐纯熟。
处理器详情如上就不絮叨了
内存方面比SER9升级到了8000MHz,同样有32G和64G 两个版本可选
其他存储、网卡、接口、显示、电源、内置麦克风和音箱
3Dmark 跑下常见三件套,与大哥HX370的对比如上,只差那么一丢丢。
既然是AI处理器,那么我们主要玩一下本地AI大模型,提到AI那必须支持最近爆火出圈的国产DeepSeek
玩之前BIOS里设置下核显分配的显存。注意默认的4G显存可以玩7B,8B建议分8G显存,14B建议分16G显存。此时包括32B也不是说完全不能玩。对于32G版本的SER9Pro,不建议设置24G显存,因为剩余的8G内存玩起来可能会吃力。
关于大模型蒸馏版本7/8/14/32B Q3 Q4等等不再赘述,建议新手朋友可以搜下相关信息了解。
下面老高做个简单的新手入门教程,需要的小伙伴跟着做很简单。
这里老高设置了16G内存分配给显存,剩余16G内存给系统使用,方便多测试几种不同版本的模型
除了Ollama之外,LM Studio也挺好用的,尤其是对于新手朋友
使用正确的上网姿势,打开左边放大镜,搜索
可以看到有很多版本,7B/8B/14B等,一般我们选择Q4的蒸馏模型,GGUF的即可
注意,我这里因为已经下载过了,第一次用这里点击Download
点击上面这里可以加载模型,可以看到我这里下载了多个模型
点击小齿轮可以设置模型
上下文长度,对于文章小说之类,可以设置8-12K,逻辑推理之类的可以用4-8K,不建议设置的过短或过长,它搞不清上下文了。
GPU这里我测试下来,只要GPU能用加速,这里可以拉满。
CPU这里也可以按需拉满,不过不建议拉满,需要给系统留点资源线程使用。一般默认即可
其他的可以全部使用默认。
注意切换其他模型,需要重新设置,也可以把自己的设置存储为默认
高级设置中可以预设场景,比如输入你是一位程序员
下面的温度,表示ai设置为严谨还是发散。比如回答历史问题建议设置为0.7,文学诗歌之类的可以设置0.9,逻辑编程之类的默认0.8即可。
我这里还是以往期测试的相同问题,使用C++写个俄罗斯方块程序,看看7B的成绩如何
至于小伙伴问到的NPU,目前暂时没有听过哪个程序可以调用NPU,不知道AMD是不是在憋大招,后面会不会有可以使用它的应用程序。
可以看到一共有1812个tokens,第一token0.36S,速度是16.66tokens/s
3分钟左右跑完,速度约14 tok/s 一共2219个tokens,第一tokens是0.35S,与7B相差不大,
第三个跑14B,一共用时近8分钟,
最后我们硬着头皮试试32B,详情请看视频

mige
校验提示文案
mige
校验提示文案
mige
校验提示文案
mige
校验提示文案