新进化论

道生一,一生二,二生三,三生万物。

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::
我们前面已经说过了,厂商所提供的IOPS值是在理想状态下测试出来的,对实际的运行性能的参考并不大,所以我们有必要通过以下几个方面来衡量该系统的实际IOPS的可能表现。决定IOPS的主要因素取决于阵列的算法,Cache命中率,以下介绍RAID磁盘IOPS。
阵列的算法也因为不同厂商不同型号的产品而不同,如我们最近遇到在HDS USP上面,可能因为ldev(lun)存在队列或者资源限制,而单个ldev的IOPS就上不去。所以,决定采购某型号的存储之前,有必要了解这个存储的一些算法规则与限制。
Cache命中率对实际IOPS有决定性的影响,Cache命中率取决于数据的分布,Cache size的大小,数据访问的规则,以及Cache的算法,如果完整的讨论下来,这里将变得很复杂,可以有一天来慢慢讨论。我们这里把这些内部原理都省略掉,只强调:对于一个存储阵列来说,读Cache的命中率越高,一般就表示它可以支持更多的IOPS,为什么这么说呢?这个就与我们下面要讨论的硬盘IOPS有关系了。
每个物理硬盘能处理的IOPS是有限制的,如
同样,如果一个阵列有120块15K rpm转速的光纤硬盘,那么,它能支撑的最大IOPS为120*150=18000,这个为硬件限制的理论值,如果超过这个值,硬盘的响应可能会变的非常缓慢而不能正常提供业务。较高的读Cache命中率,能降低硬盘IOPS负荷,让硬盘在较小的压力下良好工作。
在我们的上一篇文章“RAID 5和RAID 10,哪种RAID 适合你(上)”中曾经讨论过,在RAID 5与RAID 10的不同机制上,读数据时,IOPS性能其实没有差别。但是,相同的业务,在写入数据时,采用不同的RAID 机制最终落在RAID磁盘IOPS上是有差别的,我们评估的正是磁盘的整体IOPS,如果达到了磁盘的限制,性能肯定是上不去了。
那我们假定一个case,业务应用的IOPS是10000,读Cache命中率是30%,读IOPS为60%,写IOPS为40%,磁盘个数为120,那么分别计算在RAID 5与RAID 10的情况下,每个RAID磁盘IOPS为多少。
RAID 5:
1. 单块盘的IOPS = (10000*(1-0.3)*0.6 + 4 * (10000*0.4))/120
2.  = (4200 + 16000)/120
3.  = 168
这里的10000*(1-0.3)*0.6表示是读的IOPS,比例是0.6,除掉Cache命中,实际只有4200个读IOPS。而4 * (10000*0.4) 表示写的IOPS,因为每一个写,在RAID 5中,实际发生了4个io,所以写的IOPS为16000个。
为了考虑RAID 5在写操作的时候,那2个读操作也可能发生命中,所以更精确的计算应该为:
1. 单块盘的IOPS = (10000*(1-0.3)*0.6 + 2 * (10000*0.4)*(1-0.3) + 2 * (10000*0.4))/120
2.  = (4200 + 5600 + 8000)/120
3.  = 148
这样我们计算出来单个盘的IOPS为148个,基本达到RAID磁盘IOPS极限,在这种情况下,磁盘的工作状态是非常不理想的。
RAID 10对IOPS性能的影响
1. 单块盘的IOPS = (10000*(1-0.3)*0.6 + 2 * (10000*0.4))/120
2.  = (4200 + 8000)/120
3.  = 102
可以看到,因为RAID 10对于一个写操作,只发生2次io,所以,同样的压力,同样的磁盘,每个盘的IOPS只有102个,还远远低于磁盘的极限IOPS。
这里回到我们先前讨论的case上来,在我们先前采用RAID 5的时候,通过分析,每个RAID磁盘IOPS在高峰时期,快达到200了,导致响应速度巨慢无比。改造成RAID 10,每个RAID磁盘IOPS降到100左右,很好的避免了这个性能问题。
posted on 2012-04-12 17:50  岌岌可危  阅读(657)  评论(0编辑  收藏  举报