理论极限值是可以计算的:1333MHz * 64bit(单通道,双通道则128bit) / 8(位到字节单位转换) = 10.664GB/s。这只是理论,实际发挥还要看内存控制器,实际上1333单条跑出来的数据在7~9GB/s差不多了。
首先,实际中我没见过内存速度超过10GB/s的情况,不知道是不是题主你把单位弄错了?实际见过的像RamDisk之类的软件,连续读写能达到的速度也不过5~8GB/s左右,如果是随机读写,性能大概还要下降接近十分之一。
所以内存没你想的那么快。
其次,内存检测不是把内存读写一遍就完事,读写完还要检测读写数据是否一致,这些都是要通过CPU的ALU完成,CPU的负载会非常重,而且很多时候也并非是大块读写,而是4字节甚至单字节读写,这样算下来,为了检测一个字节的内存单元,CPU可能需要十几个到几十指令,这里还包含不少算数指令,速度很慢。
这样最终算下来,内存检测的速度大概在100MB/s或者更慢,这还没完,为了检测内存的每个bit是否正确,通常来说要擦写很多中不同的数据,比如uboot里的内存检测就写了好几次,如果以4字节16进制数来看,那么写入的东西包括:全0,全1,全5,全A,全F,基于地址的移位,地址值,地址值求反……
这还没完,还要检测物理地址的地址线是否有效,地址线可能会断开、互绕、短路等等,还有一堆堆的数字要写进去、读出来,有些地址线还可能把同一个内存位置错误的映射成两个不同的地址,因此写入的次序也有要求。
所以最终的结果就是内存检测的时间非常漫长,不亚于压缩一部像内存那么大的片子。
补充:以上仅限于用专门的内存检测工具测试的效果,PC机开机自检一般只做很简单的测试,速度很快。
首先SDR时代,只有SDR-133是PC-133的标准,核心频率为133,由于SRD为单向传送所以等效频率也是133,带宽为1.06GB/S
然后是大家所熟悉的DDR时代,由于DDR的特性是双向传送,也就是说在读的同时也可以写,这样就等于带宽加大了一倍,所以DDR的等效频率就需要核心频率X2,就拿133MHZ的DDR来说吧,他的等效频率就是266,也就是DDR 266HMZ,当然带宽也就提升了一倍为2.1GB/S。
接着是DDR2时代,DDR2是扩充了数据预取,从DDR1的2bit扩大到了4bit,再加上数据上下行同行,(在这里我引入一个数据预期技术,这要从DDR开始讲,因为DDR是双向的,所以他需要数据预取,再读写的同时预取数据,这样才能达到2倍的核心频率而达到等效频率),接着来讲DDR2,刚才说到DDR2的数据预取扩大了,因此I/O控制器满足不了4bit,所以I/O频率就必须翻倍,所以DDR2的等效频率=核心频率X2X2,比如PC2-6400(DDR2 800MHZ)的算法就是200(核心频率)X2X2=800MHZ,数据带宽是6.4GB/S。
最后来说说DDR3,这个就更容易理解了,因为数据预取又扩大了,从DDR2的4bit翻倍成了8bit,所以I/O频率又翻倍了,所以DDR3等效频率=核心频率X4X2,因此DDR3的等效频率可以达到惊人的1600HMZ。内存数据带宽就=12.8GB/S
最后再说说,带宽的算法,内存带宽=内存等效频率X64/8,举例DDR3 1600HMZ的内存带宽速度就=1600HMZX64/8=12.8GB/S。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· AI与.NET技术实操系列:基于图像分类模型对图像进行分类
· go语言实现终端里的倒计时
· 如何编写易于单元测试的代码
· 10年+ .NET Coder 心语,封装的思维:从隐藏、稳定开始理解其本质意义
· .NET Core 中如何实现缓存的预热?
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 25岁的心里话
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列01:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
2012-10-22 用命令实现Win7远程桌面关机和重启
2011-10-22 internet缓存Temp中的tmp文件