国补后的Mac mini M4 丐版性价比之王:使用报告与配件推荐
一、国补入手契机与基础配置
今年年初,我趁着2025年国补政策以3581元拿下了Mac mini M4基础版(16G+256G+千兆网口)。想着能当HTPC用,毕竟M4芯片的性能对垃圾佬来说具有非常强的吸引力

但隐藏于底部的电源键设计确实让人一言难尽


内置电源,千兆网口(要是2.5G多好),HDMI,和三个雷雳4

二、硬件搭配:从“丐版”到“全能选手”
3D打印的支架
铠侠SE10 2T
40G传输速度的硬盘盒
CPU散热器+导热垫
Type-C扩展坞
第一时间3D打印了一个支架,方便按开关机键


丐版的MAC mini 自带的256G 在安装一些常用的软件后是不够用的,微信同步过来就要占用好多
于是额外购买了一个2T的固态硬盘充当外部系统盘使用,长这样,由于温度过高,所以直接放一个散热器用于散热,从效果上看,还是非常不错的


不加散热的温度有点高,日常使用的时候测过有47度,后面担心温度会更高就把散热摁了上去,现在日常温度是30°,这是依靠散热器的被动散热,夏天还能开启上面的风扇。温度应该就不用担心了。


毕竟相对于MAC Mini配置2T的内置固态,需要额外添加6000元

自己搭配的方案289+794=1083元,就能拿下!至于散热,如果家里没有现成的,可以随便淘一个

将系统安装到外置的硬盘后,能在存储空间看硬盘的使用情况

至于担心外置硬盘速度不够的朋友可以先暂时的不用担心,我用MAC自带的硬盘测试,速度约2000MB/s
将系统安装到外置的硬盘盒后测速,速度约3000MB/s,甚至比我这个自带的硬盘速度更快一些


在系统里面,这两个盘是共存的,mac自带的硬盘也能正常访问

最后我还搭配了一个Type-C的扩展坞,这一款有SD读卡器,所以就它了

三:Mac mini M4 本地AI开发环境搭建:Ollama+VS Code+效率工具
1. 必备软件安装
(1)Chrome浏览器
推荐安装插件:Page Assist
用于调用本地的deepseek AI大模型

2. 系统监控工具 - Stats
不是APP store 里的,应该长这样下载链接

实时查看CPU/内存/网络使用率
3.Ollama 本地AI引擎部署
1. 官网下载
https://ollama.com/
下载安装完成后
打开mac的终端,输入对应的命令,完成下载,安装以及运行本地AI
安装命令示例:
# 安装14B模型(强烈推荐) ollama run deepseek-r1:14B
# 安装8B模型(内存≤16GB时选择) ollama run deepseek-r1:8B
对应的生成速度如下


三、VS Code 安装与基础配置
官网下载:https://code.visualstudio.com/
插件:汉化插件,markdown all in one ,python,continue

我的continue的配置文件如下

保存配置后运行如下 可以在对话框提问

目前只想到这,如果有其他问题或者想让我帮忙测试的可以提出,可以出第二期的

DELUX
校验提示文案
woody916
校验提示文案
yinhao
校验提示文案
XFlower
校验提示文案
灰格尔
校验提示文案
灰格尔
校验提示文案
DELUX
校验提示文案
XFlower
校验提示文案
yinhao
校验提示文案
woody916
校验提示文案