浦科特Plextor PX-2T M10P(G) 2TB SSD专业方向评测
前言
作为Plextor新一代的NVME产品线的接班人,M10P很自然的接过了M9P plus的大旗,但是M10P是一个里程碑产品,Plextor的NVME产品线一直是万年Marvell 主控,88SS1093,88SS1092一直沿用,这一次M10P终于放弃了Marvell,奔向了InnoGrit的怀抱。
Plextor自从被KIOXIA收购之后,在NAND资源方面直接获得最高支持,说实话Plextor只用原片的作风已经深入消费者内心,有较强的品牌张力,但是这么做的成本很高,也只有NAND原厂收购对双方来说才是最合适的选择。
本次评测的产品就是Plextor的M10P 系列的2TB产品PX-2T M10P(G)
开箱
▲包装正面
▲包装背面
▲包装侧面1
▲包装侧面2
▲包装侧面3
▲开箱
▲散热器外面
▲散热器内面
▲散热器侧面
▲散热器45度观
PX-2T M10P(G)配备了独家多层次结构散热鳍片,以厚实的高效散热铝挤材质上下完全包覆固态硬盘,搭配上方独特的中空多层鳍片结构,运用扩大散热面积、增厚的铝挤材质与中空热对流传导,大幅优化散热效果,在连续读取的作业状况下,仍可显著降温30%,虽然散热效果可能很好,但散热器的尺寸为24.3 x 70 x 15 mm,需要占用大量的空间,可能会导致主板的兼容性问题,这次Plextor很明智的使用了盘体和散热分离的做法,保证最大的兼容性。
▲铭牌
▲SSD正面
▲SSD背面
解析
得益于KIOXIA与Plextor的关系,在NAND上给与了全力支持,所以这次2TB SSD也只使用了2颗1TB的Bics4 HDR NAND,这种单颗1TB的NAND一般很少对外出货,供自家品牌使用。
主控
▲这次M10P并未采用Marvell的主控,而是采用了InnoGrit IG5236FAA主控,
▲话说InnoGrit这家公司也并非与Marvell毫无干系,InnoGrit 由前 Marvell CTO 吴子宁和其他存储行业重量级人物于 2016 年创立,旨在通过集成电路和系统解决方案开发支持 AI 和大数据的存储技术。
▲Rainier IG5236内部代号为Rainier ,采用 TSMC 12nm FinFET CMOS 工艺制造,是PCIe Gen4 x4、NVMe 1.4 规格的SSD 控制器,硬件参数是32-bit ARM Cortex R5四核处理器,667MHz主频。
IG5236 支持具有 32/16 位宽数据总线的 DDR3或者DDR4 SDRAM。支持8 个 NAND 通道,支持 MLC、TLC 和 QLC 以及 ONFI 4.1 或 Toggle 2.0/3.0/4.0。该控制器实现了InnoGrit专有的4kB LDPC ECC,端到端数据保护甚至RAID引擎,以确保可靠性和数据完整性。
支持最大容量方面,最大容量高达 16TB。
功耗方面,在L1.2睡眠状态下功耗仅为2mW。
安全方面,IG5236具有多种数据加密和保护方案,包括 AES、SM2/3/4(中国国家密钥)、SHA、RSA、ECC、CRC 和端到端数据保护。
纠错方面,使用4kB LDPC,数据耐用性和保留率大大增强,可为 SSD 解决方案提供更好的可靠性和超高性能。
▲准确来说,他的对手并不是三星 WD,而是来自Phison的PS5018-E18 以及来自Silicon Motion的SM2264 SSD控制器。
缓存
▲缓存使用了两颗NANYA NT5AD512M16A4-HR
▲我们再来看一下Rainier IG5236的InnoGrit公版设计,只有一颗16Bit的DRAM Cache。
▲溯源到NANYA的DATASHEET,NT5AD512M16A4-HR是一颗容量512Mb x 16 也就是 1GB的DDR4-2666的缓存颗粒,时序为19 19 19。单颗16Bit,两颗组成32Bit总2GB的缓存。这个缓存组合也可以理解成类似双通道组合概念。
闪存
▲TH58LKT3T2MBAEG NAND 是KIOXIA Bics4 HDR, 96层堆叠3D TLC,16Die。
解释一下Bics4 HDR中的HDR的全英文为High Data Rate,意思就是高速版本Bics4,一般用来适配PCIe Gen4主控的,
▲普速版的1TB单颗Bics4在KIOXIA XG6-P 2TB SSD中就使用到了,NAND编号为TH58LJT3X24BAEG,单颗1TB,共使用两颗。
▲这是一颗标准的PCIe Gen3的SSD。
这次1TB的KIOXIA Bics4 HDR单颗正片,Plextor M10P可以使用上,已经说明Plextor凭着太子地位顺利获得上游顶端的NAND资源。
测试平台
CPU:AMD Ryzen R9 5950X
主板:ASRock X570 phantom Gaming-ITX/TB3(BIOS P2.00)
内存:Mircon DDR4-3200 ECC-UDIMM 32GB x2
SSD:Hikvision E200Pro 1TB SATA x2
SSD:Plextor PX-2T M10P(G)
散热:Jonsbo SHADOW 240 RGB
显卡:AMD Radeon Pro VEGA Fronter Editon 8GB
电源:Corsair SF750
机箱:Jonsbo A4
机箱配件
风扇:Thermalright TL-RS12 RGB x4
护罩:12cm不锈钢风扇护罩 x4
定制线材
SSD:[SATA 双头右弯 数据线 20CM 蓝线黑头] x2
风扇:[小王定制][Fan 4Pin一转二 30CM 镀银线] x2
RGB:[小王定制][Aura 5V 3Pin一转三 30CM 镀银线] x1
模组:[小王定制][SF750+A4机箱定制红色硅胶套装] x1
▲俯视角度1
▲俯视角度2
▲左侧正面
▲右侧正面
▲45度视角1
▲45度视角2
WINDOWS测试部分
官方参数
TBW
▲测试前期CrystalDiskiinfo 8.12.1检测的SMART信息
▲测试中期CrystalDiskiinfo 8.12.1检测的SMART信息
▲测试后期CrystalDiskiinfo 8.12.1检测的SMART信息
从这里的写入量来看的话,主机写入量总计109.496TB,寿命消耗在6%-7%之间,参数收紧一点假设寿命消耗是7%,换算出来的FW的寿命计算为109.496TB/0.07=1564TBW,远大于官方设定的1280TBW。
官方性能定标
PX-2T M10PG的官标性能我相信很多人测试过,但是估计没一个人能摸到随机读写的IOPS极限,测试条件很关键,首先官方说他们使用的测试工具是CrystalDiskMark 5.0.2 和 IOmeter 1.1.0,测试硬件Z590,操作系统WIN10专业版X64,自己也可以尝试测试所有QD深度和T线程数,可以摸到了这个极限,如下图:
▲CrystalDiskMark 5.0.2的持续读写使用QD32T1的默认设置,随机读写使用QD32T16的条件,可以非常接近官标所标识的UP TO的最大值:
Sequential Read [持续读取](Q=32,T=1) : 7030.599 MB/s
Sequential Write [持续写入](Q=32,T=1) : 5013.030 MB/s
Random Read 4KiB [4K随机读取](Q=32,T=16) : 3222.122 MB/s [786650.9 IOPS]
Random Write 4KiB[4K随机写入] (Q=32,T=16) : 2199.685 MB/s [537032.5 IOPS]
前三个数值已经达标超越官标的UP TO最大值,第四个数值非常接近官标数值。
定标测试结果受到哪些影响因素呢?
这里的持续读写效能还是相对比较好获取,而这里的随机读写却要受到四个因素影响:
1、QD深度
2、测试中使用的CPU线程数
3、CPU主频
4、主板芯片组的PCIe GEN4 NVMe磁盘效能
简单来说,对于PCIe GEN4的SSD主控而言,主板芯片组的PCIe GEN4 NVMe磁盘效能越好,CPU的主频越高,所获得的随机写入速度往往越高,这里测试所使用的线程数其实并不是开越多越好,QD深度也是一样,最高效能由FW的优化决定。
天堂和地狱
有了以上的经验,我有点怀疑官方针对4K QD32 T16有特殊优化,所以继续用这种天堂和地狱的手法进行其他软件和版本的对比,结果如下:
▲CrystalDiskMark 5.0.2 默认设置下的空盘1GB数据块和97%满盘32GB数据块的测试对比,配置使用持续读写Q32T1和随机读写Q32T16,可以很直观得使用软件的最大压力限制反应磁盘在该软件下最好和最差的表现。
测试结果反馈4K随机读写和持续读写均发生不同程度的下降,不过貌似看起来情况还不差。
▲AS SSD Benchmark 2.0.7316.34247默认设置下的空盘1GB数据块和97%满盘下10GB数据块的测试对比,可以很直观反应在该软件最大压力限制范围内磁盘最好和最差的表现。
测试结果反映4K随机读写的衰减和延迟的暴增是显而易见的存在,看起来仍在可接受范围内。
不同的软件,不同的版本,不同的线程,不同的深度在跑这种 天堂和地狱 的测试中,表现也不尽相同,包括官方FW针对CrystalDiskMark 5.0.2的4K QD32 T16感觉也是做了优化在其中的。但是其实这些都不影响主要的权重性能,至少这种程度的天堂到地狱的衰减是在可接受范围。在NTFS桌面性能相对最差的情况中,依然有这样的性能,四个字:东西规矩。
SSD的固件开发就如同一个天平,主控的CPU资源有限,NAND的实际读写能力有限,SLC Cache的大小有限,合理调度这三方面的性能满足消费级大部分使用需求才是最重要的。
这个测试带我们走过厂商宣称的最好效能和我们实测的最差情况下的效能参数对比,体现了一个SSD在3D TLC NAND调教、主控固件平衡以及盘内容量大部分写入情况下的综合能力。
SLC Cache验证
DATAWRITE是我的一个大神级程序员朋友pufer在谈笑间写出的一个小程序,用于验证2D 3D TLC真实写入速度的。规则是使用随机模式QD1深度随机往SSD里面以1GB数据块大小为单位写入并且反馈即时的写入速度,这个软件当时我们开玩笑说的是,大部分的测试软件都在RAW格式下测试写入速度有失偏颇,那么我们能否直观一些在NTFS格式下进行一些动态写入以获得初略的2D 3D TLC NAND真实的写入速度评估,这就是这个软件编写的初衷。
▲很直观,写入在115GB附近开始掉速,这就是大致的SLC Cache容量,之后的写入速度是稳定在1500MB/S左右。
▲然后用HD Tune验证一下我们的猜想,果然符合,得出准确的SLC Cache在115GB。
TrimCheck 0.7
TRIM CHECK是一款很实用的检测SSD是否TRIM生效状态的软件,TRIM指令让操作系统可以告诉固态驱动器哪些数据块是不会再使用的;否则SSD控制器不知道可以回收这些闲置数据块,TRIM可以减少写入负担,同时允许SSD更好地在后台预删除闲置的数据块,以便让这些数据块可以更快地预备新的写入。当然光操作系统支持TRIM不行,还需要SSD的固件支持。
▲向SSD里写入一个16M的文件,这文件头的前16位字节如上图白色区域所表示,这也是该文件唯一的文本字符串,然后将其删除,如果TRIM工作,控制器也将删除这个数据,这时候软件让你等待大约20秒后然后按ENTER继续,然后关闭软件再次打开。
▲再次打开软件,提示原白色区域的字节已经被0所填充,说明主控固件的TRIM机制有效。
Secure Erase有效性测试
考虑到IG5236毕竟是新产品主控,我比较怀疑使用目前主板自带的Erase Tool对其进行Secure Erase操作的可行度,故此有了这个测试。
▲测试结论是使用ASRock X570 Phantom Gaming ITX/TB3的bios自带的SSD Secure Erase Tool对SSD进行Erase操作,实测有效。
URWTEST
▲URWTEST这个软件和前面的DATAWRITE有异曲同工之妙,不同的是他是使用随机模式QD1深度随机往SSD里面以2GB数据块大小为单位写入并且反馈即时的写入速度,写满了盘之后可以进行一次数据校验,校验的过程就是随机读取的过程,而校验的结果就是数据完整性的检测。这个测试更接近我们日常的应用等级。
SNIA PTS评估验证
前面的测试都在NTFS格式下的桌面环境中测试,由于PX-2T M10P(G)1.0T版本固件的平衡能力以及超大的SLC Cache,无法将其打落到到NAND本身的实际写入速度,即使在桌面环境的测试看起来结果还是不错的,我还是想看一下这个SSD是否能抗住企业级SSD标准化测试的残酷考验。
▲全球网络存储工业协会(Storage Networking Industry Association,SNIA)是成立时间比较早的存储厂家中立的行业协会组织,宗旨是领导全世界范围的存储行业开发、推广标准、技术和培训服务,增强组织的信息管理能力。作为一家非盈利的行业组织,拥有420多家来自世界各地的公司成员以及7100多位个人成员,遍及整个存储行业。它的成员包括不同的厂商和用户,有投票权的核心成员有Dell、IBM、NetApp、EMC、Intel、Oracle、FUJITSU、JUNIPER、QLOGIC、HP、LSI、SYMANTEC、HITACHI、Microsoft、VMware、Huawei-Symantec十五家,其他成员有近百以上,从成员的组成可以看出,核心成员来自核心的存储厂商,所以SNIA就是存储行业的领导组织。在全球范围SNIA已经拥有七家分支机构:欧洲、加拿大、日本、中国、南亚、印度以及澳洲&新西兰。
Solid State Storage Performance Test Specification Enterprise v1.0是SNIA于2011年给Enterprise SSD都制定了Performance Test(性能测试)的规范,可以到其网站www.snia.org下载。
很少有人将一个消费级SSD推到极限的情况下去评估Perfermance效能,因为大部分的情况是掉成狗,有很多厂家是很忌讳使用SINA的标准SSD测试规范对他们的产品进行评估的,这个测试会将一切的外部加成全部忽略掉,将其打落到NAND本质的速度,进行严格的稳定态测试,如果性能浮动太大的话,可能永远无法达到稳定态直到测试中断,或者如果EARSE机制偶发性失效出现问题,这个测试也会中断,所以不是什么盘都能得到最终的测试结果,很多盘没跑完测试就已经被强制中断测试了,所以我很想知道这个盘以何种姿态通过测试或者不通过。
在SNIA组织定义的规范中,规范了如何测试闪存设备或固态存储。业界希望有一种来比较SSD的科学方法,这也是需要SNIA测试规范的原因。SSD的写入性能在很大程度上取决于NAND的写入历史。SSD一般有三个写阶段:
1、FOB(全新从盒子里拿出来的状态)
2、Transition(过渡)
3、Steady State(稳定状态)
以上图例来自SINA PTS 1.1测试规范
Transition(过渡)过渡是FOB和稳态的良好表现之间的阶段。大多数情况下,性能会随着时间的推移而持续下降,直到达到稳定状态为止。SNIA PTS1.1的测试规范则很严格的监控了FOB到稳定态的每一个阶段,以及评估标准帮你去确认你的企业级SSD确实达到了稳定态,所以根据以上溯源我们有了如下的操作:
软件系统及设置
操作系统 : Ubuntu 19.04 Disco Dingo (development branch)
内核版本 : 5.0.0-11-generic
测试软件: fio-3.12
Number of jobs: 2
Number of outstanding IOs (iodepth): 32
为了避免在T16线程钻到浦科特优化的套路里跑出很华丽的IOPS,所以这次使用了T2线程,进行测试。双核环境我相信是目前最广普的环境了,因为桌面环境下的固件优化后的高值IOPS我看够了,所以我想看最差的表现。
1、IOPS测试(IOPS)
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
每一轮测试包含.512B,4K,8K,16K,32K,64K,128K,以及1MB数据块大小,每个数据块在100%,95%,65%,50%,35%,5%和0%运行读/写混合测试,各为一分钟。试验由25回合(Round)组成(一个循环需要56分钟,25回合=1400分钟)
使用4K随机写入的IOPS作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准。
▲测试真实性溯源
▲实测PX-2T M10P(G)从FOB->Transition->Steady State的过程图。
▲完整测试过程图
<iops>
<fioversion>"fio-3.1n"</fioversion>
<numjobs>2</numjobs>
<iodepth>32</iodepth>
<runtime>60</runtime>
<xargs>["refill_buffers"]</xargs>
<roundmat>[[[6249, 49449, 96255, 184665, 315147, 453734, 577414, 578230], [1451, 11902, 22118, 41488, 74643, 131169, 223658, 211850], [233, 1928, 3886, 7741, 15260, 30015, 54536, 52050], [162, 1340, 2681, 5367, 10673, 21158, 40445, 38585], [126, 1039, 2084, 4169, 8295, 16468, 32249, 30635], [88, 730, 1487, 2961, 5792, 11655, 23402, 22511], [86, 706, 1422, 2882, 5745, 11407, 22619, 21423]], [[6157, 47686, 91420, 176757, 299074, 428863, 565505, 566256], [1520, 12222, 23186, 46665, 81952, 139501, 239678, 226878], [260, 2170, 4286, 8217, 16004, 30762, 57175, 55592], [169, 1378, 2779, 5512, 10942, 21493, 41070, 39575], [127, 1065, 2138, 4291, 8468, 16893, 33294, 31773], [91, 750, 1518, 3112, 6112, 12290, 24689, 23859], [90, 719, 1455, 3000, 5849, 11648, 23876, 22820]], [[5837, 41440, 77411, 153693, 277792, 426864, 565036, 565763], [1540, 12194, 23429, 46625, 81975, 141512, 241721, 229398], [262, 2130, 4305, 8405, 16202, 31387, 57878, 55529], [172, 1402, 2795, 5620, 10847, 21591, 41062, 39513], [127, 1051, 2093, 4161, 8318, 16742, 33209, 31194], [92, 758, 1524, 3114, 6166, 12343, 24732, 23892], [93, 738, 1465, 2997, 6009, 11884, 23651, 22921]], [[5825, 40164, 79969, 151517, 283132, 427172, 564569, 565650], [1541, 12139, 23541, 46559, 82649, 141504, 240892, 227395], [260, 2106, 4215, 8433, 16360, 31514, 58195, 56127], [172, 1397, 2847, 5680, 11160, 21599, 41192, 39578], [126, 1046, 2120, 4174, 8427, 16829, 32984, 32218], [91, 776, 1555, 3078, 6149, 12534, 25172, 24180], [94, 749, 1504, 3012, 5998, 11976, 24243, 23279]], [[6126, 47310, 90525, 175371, 296698, 419569, 564036, 564859], [1552, 12101, 23122, 46592, 82493, 141405, 241678, 229397], [262, 2101, 4222, 8434, 16435, 31644, 58560, 56542], [174, 1427, 2806, 5757, 11220, 21955, 41667, 39466], [127, 1051, 2118, 4251, 8412, 16683, 33325, 31537], [94, 777, 1555, 3147, 6180, 12409, 25498, 24364], [92, 737, 1513, 3015, 6037, 12128, 24400, 23554]]]</roundmat>
<stdyrounds>[0, 1, 2, 3, 4]</stdyrounds>
<stdyvalues>[22619, 23876, 23651, 24243, 24400]</stdyvalues>
<stdyslope>[392.89999999999634, 22972.00000000001]</stdyslope>
<stdyavg>23757</stdyavg>
<reachstdystate>true</reachstdystate>
<rndnr>4</rndnr>
</iops>
▲完整测试数据
▲IOPS稳态收敛图-QD32
显示相关变量如何收敛到稳定状态的过程
▲IOPS稳定态验证图-QD32
显示(0,1,2,3,4)回合进入了稳态,这里需要说明的是,当性能特别稳定的盘上去,一般来说都是(0,1,2,3,4)直接进入稳定态了,而稳定性差点的盘上去,可能就在更多的回合进入了,4K随机写入性能浮动较大的盘如果不能控制在20%以内的话,那就永远通不过这个测试。
所以这个环节,从FOB状态过渡到稳定态耗费了最少的回合,表现很好。
▲IOPS测试2D图-QD32
▲IOPS测试3D图-QD32
2、带宽测试(TP)
测试方法
进行Secure Erase安全擦除
对于['1024k', '64k', '8k', '4k', '512']数据块大小进行持续读写60秒为一回合(Round)
使用1024K持续写入的吞吐量作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲测试真实性溯源
▲完整测试过程图
▲回合过渡图1
▲回合过渡图2
▲回合过渡图3
以上三张图可以看出每一回合的过渡还是非常顺滑的,没有异常的速度值出现。
<tp>
<fioversion>"fio-3.1n"</fioversion>
<numjobs>2</numjobs>
<iodepth>32</iodepth>
<runtime>60</runtime>
<xargs>["refill_buffers"]</xargs>
<roundmat>[[[7285401, 6425984, 6033185, 5942865, 5803042, 5868278], [2896264, 4030024, 4162305, 4328816, 4332194, 4318241]], [[5772253, 5842861, 5928337, 5909423, 5924998, 5890744], [4284557, 4206472, 4203448, 4199069, 4200417, 4211550]], [[3982104, 4509528, 4490218, 4463765, 4515533, 4507594], [3032195, 3024492, 2996664, 3019716, 3019525, 2995937]], [[2932057, 2949191, 2934493, 2946310, 2941781, 2937320], [2173416, 2163403, 2164706, 2161143, 2163990, 2150285]], [[92636, 87821, 97773, 74375, 104543, 106466], [175720, 175407, 175666, 175454, 175488, 175447]]]</roundmat>
<stdyrounds>[1, 2, 3, 4, 5]</stdyrounds>
<stdyvalues>[4030024, 4162305, 4328816, 4332194, 4318241]</stdyvalues>
<stdyslope>[74632.30000000072, 4010419.0999999964]</stdyslope>
<stdyavg>4234316</stdyavg>
<reachstdystate>true</reachstdystate>
<rndnr>5</rndnr>
</tp>
▲完整测试数据
▲带宽稳态收敛图-QD32显示相关变量如何收敛到稳定状态的过程
从测试原数据可以看出:
数据块=1M时,读取最高达到7285.401MB/s,
数据块=64K时,写入最高达到4284.557MB/s,
▲带宽稳定态验证图-QD32
显示(1,2,3,4,5)回合直接进入了稳态,稳定性不错,满足验证标准给出了1M数据块下持续写入振幅20%平均值与测量值线性最佳拟合线的斜率的条件。
▲读写带宽测试2D图-QD32
我们可以看到稳定态下持续读写各个数据块下的平均表现力,1M数据块下持续读最大平均带宽5873.702MB/S,持续写最大平均带宽4135.074MB/S
3、延迟测试(LAT)
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
对于['8k','4k','512']数据块大小进行100%读,65%读35%写,100%写的随机读写测试,测量最大最小以及平均的延迟,60秒为一个回合(Round)
使用4K随机写入的平均延迟作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲测试真实性溯源
▲完整测试过程图
<lat>
<fioversion>"fio-3.1n"</fioversion>
<numjobs>1</numjobs>
<iodepth>1</iodepth>
<runtime>60</runtime>
<xargs>["refill_buffers"]</xargs>
<roundmat>[[[[12.0, 4072.0, 76.959378], [11.0, 831.0, 72.086136], [10.0, 1155.0, 72.128446]], [[9.95, 7711.7, 88.33428249999999], [42.1, 6534.75, 67.4959195], [8.65, 5891.15, 68.8923211]], [[8.0, 60419.0, 88.616454], [7.0, 59701.0, 45.206812], [7.0, 59313.0, 47.015547]]], [[[64.0, 1139.0, 77.474097], [62.0, 1371.0, 72.410456], [62.0, 4115.0, 72.420692]], [[44.4, 6121.349999999999, 86.57495055000001], [42.449999999999996, 6738.2, 64.6567204], [42.449999999999996, 6778.55, 65.9763012]], [[7.0, 59965.0, 88.466301], [7.0, 60286.0, 44.882015], [7.0, 59664.0, 46.991702]]], [[[65.0, 2650.0, 77.357155], [62.0, 1779.0, 72.31095], [62.0, 867.0, 72.358035]], [[44.4, 6649.5, 86.02330445], [42.1, 6572.55, 64.50911015], [42.1, 6762.65, 65.5308367]], [[8.0, 60020.0, 89.108049], [7.0, 59514.0, 44.440998], [7.0, 60709.0, 46.731762]]], [[[64.0, 2584.0, 77.161831], [12.0, 1602.0, 72.301242], [62.0, 831.0, 72.382067]], [[43.75, 6810.9, 85.82102505], [42.1, 6736.099999999999, 64.35195335], [42.1, 6106.4, 65.73546775]], [[8.0, 60987.0, 88.385993], [7.0, 59062.0, 44.372674], [8.0, 60263.0, 45.56774]]], [[[64.0, 1220.0, 77.430378], [62.0, 1274.0, 72.35001], [62.0, 831.0, 72.393966]], [[44.4, 6390.8, 87.08060750000001], [42.1, 6669.35, 64.4572996], [42.449999999999996, 6176.9, 65.58005335]], [[8.0, 60789.0, 88.242234], [7.0, 59449.0, 43.662774], [7.0, 60927.0, 45.846122]]]]</roundmat>
<stdyrounds>[0, 1, 2, 3, 4]</stdyrounds>
<stdyvalues>[45.206812, 44.882015, 44.440998, 44.372674, 43.662774]</stdyvalues>
<stdyslope>[-0.3597417000000043, 45.23253799999999]</stdyslope>
<stdyavg>44.51305460000001</stdyavg>
<reachstdystate>true</reachstdystate>
<rndnr>4</rndnr>
</lat>
▲完整测试数据
▲延迟稳定态收敛图-QD32显示相关变量如何收敛到稳定状态的过程
▲延迟稳定态确认图-QD32显示了4K随机写入过程中,在(0、1、2、3、4)回合达到了稳定态,耗费最少的回合,说明稳定性很好。
▲平均延迟在所有进程中的表现在0.09毫秒以内。
▲最大延迟在所有进程中的表现在70毫秒以内。随机读的部分是最大延迟很低的,而只有随机写的部分最大延迟相对较高,这里涉及到的问题就是主控资源的充足度以及LDPC解码资源和耗费时间问题之间的平衡调节问题了,相对于3D TLC而言,写入部分的最大延迟普遍性高一些和以下一些因素有关:
1、主控的资源,比如主控的主频以及核心数,ARM构架或者MIPS构架的实际效能。
2、LDPC硬软解码的能力。
3、主控固件的硬软件开发能力。
那么如果需要举例说明的话,SATA盘中的SMI2258H主控+TSB 64层3D TLC的盘在这个测试中随机写最大延迟普遍在700毫秒以上,这样比较就可以更加明晰本款产品的效能定位。
▲平均和最大延迟3D图-QD32以及汇总数据。
4、写饱和度测试(WRITESAT)
测试方法
进行Secure Erase安全擦除
执行4K随机写入1分钟为一回合(Round),写入4倍全盘容量或者24h,以先达到者为准
计算各个回合的平均IOPS(Avg IOPS)
▲测试真实性溯源
▲完整测试过程图
<writesat>
<fioversion>"fio-3.1n"</fioversion>
<numjobs>2</numjobs>
<iodepth>32</iodepth>
<runtime>60</runtime>
<xargs>["refill_buffers"]</xargs>
<roundmat>[[466815, 517429, 534187, 515583, 530240, 534590, 520446, 523564, 524316, 530050, 532384, 532232, 532542, 531744, 532110, 532875, 532265, 532574, 532085, 531785, 532371, 532325, 524400, 519932, 514885, 518185, 529334, 531031, 531311, 531388, 531158, 534731, 534552, 534458, 529994, 531145, 530838, 528411, 532886, 534519, 530960, 530249, 533989, 511427, 522924, 524536, 534216, 534115, 534431, 534348, 534162, 534455, 534294, 534166, 534362, 533724, 534604, 501953, 523376, 525123, 525040, 512952, 529078, 529943], [[14.0, 14125.0, 136.077879], [59.0, 10158.0, 122.745458], [58.0, 10441.0, 118.967364], [59.0, 21160.0, 123.119568], [65.0, 14883.0, 119.827729], [60.0, 14505.0, 118.869536], [58.0, 18611.0, 122.014543], [18.0, 14630.0, 121.291693], [13.0, 9679.0, 121.108319], [58.0, 16761.0, 119.835524], [31.0, 8044.0, 119.330042], [60.0, 19849.0, 119.354927], [26.0, 8169.0, 119.302243], [60.0, 14809.0, 119.462142], [59.0, 9855.0, 119.404048], [51.0, 8373.0, 119.229247], [24.0, 8639.0, 119.3494], [61.0, 8813.0, 119.288416], [59.0, 8100.0, 119.395748], [57.0, 8540.0, 119.458786], [59.0, 8279.0, 119.336062], [30.0, 10437.0, 119.347106], [59.0, 24068.0, 121.081493], [16.0, 10922.0, 122.107697], [25.0, 12615.0, 123.282227], [15.0, 13066.0, 122.535802], [54.0, 12246.0, 120.006441], [59.0, 10569.0, 119.626544], [12.0, 12621.0, 119.552195], [60.0, 12885.0, 119.557772], [57.0, 13980.0, 119.61644], [29.0, 6158.0, 118.852114], [58.0, 4265.0, 118.886831], [61.0, 4274.0, 118.896596], [30.0, 10334.0, 119.859121], [58.0, 12313.0, 119.603605], [59.0, 8332.0, 119.675082], [24.0, 10276.0, 120.210229], [58.0, 6169.0, 119.246118], [19.0, 4257.0, 118.898712], [37.0, 8938.0, 119.66843], [28.0, 11112.0, 119.802592], [60.0, 7823.0, 119.014823], [61.0, 14536.0, 124.075922], [60.0, 11564.0, 121.453814], [27.0, 9904.0, 121.083803], [11.0, 7856.0, 118.956897], [59.0, 6284.0, 118.985379], [59.0, 4234.0, 118.916575], [66.0, 6464.0, 118.935902], [59.0, 7727.0, 118.973935], [24.0, 7744.0, 118.903119], [31.0, 6517.0, 118.951442], [59.0, 20250.0, 118.961975], [59.0, 6398.0, 118.928148], [30.0, 4213.0, 119.067876], [61.0, 4204.0, 118.880713], [16.0, 14967.0, 126.361394], [59.0, 13987.0, 121.315773], [60.0, 14284.0, 120.925042], [59.0, 15586.0, 120.966982], [60.0, 31453.0, 123.667151], [34.0, 10681.0, 120.074552], [58.0, 22692.0, 119.870052]]]</roundmat>
<rndnr>63</rndnr>
</writesat>
▲完整测试数据
▲写饱和平均IOPS图-QD32
这个测试实际写入也就63轮写满4倍全盘容量,因为纯写入任务相对于混合读写比例的测试要简单很多,这个测试的压力程度对主控的资源以及固件的GC TRIM以及SLC Cache性能回复不造成压力,所以从空盘到写满四倍全盘容量的过程中并没有发
现4K随机写入的性能发生明显衰减,这也是所以依然可以稳定在500000 IOPS以上并且持续到测试结束的根本原因。
▲写饱和平均延迟图-QD32
测试跑在0.13毫秒以内一直到测试结束。
对比测试
这次选用的对比产品为:
▲官标参数如上
软件系统及设置
操作系统 : Ubuntu 19.04 Disco Dingo (development branch)
内核版本 : 5.0.0-11-generic
测试软件: fio-3.12
Number of jobs: 2
Number of outstanding IOs (iodepth): 32
1、IOPS测试
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
每一轮测试包含.512B,4K,8K,16K,32K,64K,128K,以及1MB数据块大小,每个数据块在100%,95%,65%,50%,35%,5%和0%运行读/写混合测试,各为一分钟。试验由25回合(Round)组成(一个循环需要56分钟,25回合=1400分钟)
使用4K随机写入的IOPS作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲IOPS测试对比图
▲IOPS稳定态验证图-QD32:Plextor M9PeGN Plus 1TB
▲IOPS稳定态验证图-QD32:Plextor PX-2T M10P(G)
▲IOPS稳定态验证图-QD32:Samsung PM9A1 1TB
速度上Samsung PM9A1 1TB占据绝对优势,稳定性上是三者最差的,因为其速度一直在大振幅抖动,导致进入稳定态很慢,到了22回合才进入稳定态。Plextor PX-2T M10P(G)的稳定性是最好的,在第四回合进入稳定态,说明性能振幅较小。
随机读写,三星无敌,暂时无解。
2、带宽测试(TP)
测试方法
进行Secure Erase安全擦除
对['1024k', '64k', '8k', '4k', '512']数据块大小进行持续读写60秒为一回合(Round)
使用1024K持续写入的吞吐量作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
▲带宽测试(TP)测试对比图
▲带宽测试(TP)稳定态验证图-QD32:Plextor M9PeGN Plus 1TB
▲带宽测试(TP)稳定态验证图-QD32:Plextor PX-2T M10P(G)
▲带宽测试(TP)稳定态验证图-QD32:Samsung PM9A1 1TB
带宽测试(TP)Plextor PX-2T M10P(G)无论是速度还是稳定性都占据优势,稳定性上其实三者完全一致在第五回合进入稳定态。
3、延迟测试(LAT)
测试方法
进行Secure Erase安全擦除
预处理:128K持续写入双倍SSD容量
对于['8k','4k','512']数据块大小进行100%读,65%读35%写,100%写的随机读写测试,测量最大最小以及平均的延迟,60秒为一个回合(Round)
使用4K随机写入的平均延迟作为测试目标,写入振幅20%平均值与测量值线性最佳拟合线的斜率作为验证进入稳定态的标准
延迟测试(LAT)对比图
▲延迟测试(LAT)稳定态确认图-QD32:Plextor M9PeGN Plus 1TB
▲延迟测试(LAT)稳定态验证图-QD32:Plextor PX-2T M10P(G)
▲延迟测试(LAT)稳定态验证图-QD32:Samsung PM9A1 1TB
这个测试稳定性三者都一样,第四回合进入稳定态,延迟方面上Samsung PM9A1 1TB占据绝对优势。
4、写饱和度测试(WRITESAT)
测试方法
进行Secure Erase安全擦除
执行4K随机写入1分钟为一回合(Round),写入4倍全盘容量或者24h,以先达到者为准
计算各个回合的平均IOPS(Avg IOPS)
▲写饱和度测试(WRITESAT)平均IOPS图-QD32可以看到写入四倍全盘容量的过程:Samsung PM9A1 1TB写入速度上最快,稳定性最差,性能振幅抖动过大,Plextor M9PeGN Plus 1TB稳定性最好,但是速度最慢,Plextor PX-2T M10P(G)的测试结果兼顾了高速和稳定。
温度测试
▲测试SSD温度使用的环境为裸片测试。
我在Ubuntu下使用
sudo watch -n 1 nvme smart-log /dev/nvme0n1
这条命令来监控SSD的温度
▲空闲温度为31度
▲然后进行4K QD32的随机写入,持续一段时间速度趋于稳定了,再记录温度,这个温度高温临界值在75度附近,达到75度原本很稳定的写入曲线立刻变锯齿,这说明发生降速情况。
所以使用这个SSD还是建议使用主板自带的SSD散热片或者SSD包装里自带的散热片,这样可以尽可能保证不发生降速情况。
总结
1、Rainier IG5236主控感觉在:
随机读写上面不是很高,但是稳定性尚可;
持续读写的表现很好,抗压能力超强。
延迟方面表现一般。
2、Plextor PX-2T M10P(G)的速度以及稳定性都是相当不错的,基本4-5回合就可以快速进入稳定态,这在Plextor前作的产品中是做不到的,这也是目前为止,Plextor出品的最快最稳的产品,没有之一。
3、温度问题依然存在,依然需要被动散热片或者用户自备主动散热来保证高速写入不掉速。
4、Plextor PX-2T M10P(G)使用的NAND是正片,且是HDR高速版本的,点赞。
5、价格定位而言,Plextor PX-2T M10P(G)的价格紧跟Samsung 980Pro 2TB以及PM9A1 2TB,且已经非常接近,这种定价策略是有点问题的。东西是好东西,刚需可入。

奥特曼殴打小怪兽
校验提示文案
尼古拉斯lalala
校验提示文案
高柳乱蝉
校验提示文案
我们一起捉水母
校验提示文案
mgmg2
校验提示文案
强哥视角
校验提示文案
GT_7
校验提示文案
飞帆飞帆
校验提示文案
哎呦我去沈老师
大佬的文案力最强
校验提示文案
咬牛奶喝面包
校验提示文案
被演南非
校验提示文案
一只蘑菇闯天涯
校验提示文案
阿正1666
校验提示文案
玲玲静静买
校验提示文案
iceing2017
校验提示文案
Y_S都说名字长醒目
校验提示文案
百里屠苏苏苏苏
校验提示文案
龙猫咪
校验提示文案
十八线老编
校验提示文案
提尔皮兹
校验提示文案
值友8555515677
去看看
校验提示文案
重置和学习
因为hd tune只能测试200g的限制,Pm9a1的2t版本在hd tune的缓外测试中为1.6g左右,但是实际全盘写入会发现,9a1出缓后维持1.6g速度左右只有一小段时间,然后会在1.8g甚至能达到2g直到写完,最后全盘写入平均速度在2.15g。倒是看到有人io meter测试中的9a1也是出缓后短期跌破2.0g,然后保持2.1g的速度。这样来看刚出缓的速度是否是三星在释放slc的空间的同时进行tlc直写,其实可以认为三星pm9a1实际tlc直写应该是1.8-2g左右呢。另外早期的9a1有严重的slc cache失效问题,当它失效的时候,测出来的写入速度也刚好是2.0g左右,是不是一个佐证呢?
如果真是2g的缓外,再加上上面对比测试无敌的随机读写,以及低延迟,在首发满速4.0情况下,如今一年过去了,三星依旧这么强悍吗?感觉国产和其他厂商看着这样的产品应该会有点绝望吧。
校验提示文案
重置和学习
要是大佬能有个9a1的详细评测做对比就好了,是因为其他人评测得太多了,所以不做吗?另外也对大佬上面测slc cache和缓外写入速度的软件感到好奇。因为想测一下pm9a1的真实缓外,网上各种测试缓外都不一样,官方也没给出数据。
校验提示文案
囧小叔
校验提示文案
值友9857215869
校验提示文案
jlkk
校验提示文案
super7610
校验提示文案
super7610
校验提示文案
Strix
校验提示文案
怡然自得210
校验提示文案
Kim较瘦
校验提示文案
玲玲静静买
校验提示文案
失落滴趴趴熊
校验提示文案
YooYiwan
校验提示文案
小泽不是玛利亚o0
校验提示文案
送分小天使
校验提示文案
M-慢性子
校验提示文案
凡客S
校验提示文案
凡客S
校验提示文案
赛博猴子
校验提示文案