【转】探讨大数据量处理

bloom-filter 算法


场景:我说的大数据量处理是指同时需要对数据进行检索查询,同时有高并发的增删改操作;

记得以前在XX做电力时,几百万条数据,那时一个检索查询可以让你等你分钟;



现在我是想探讨下对大数据量的处理,那时我就在想例如腾讯,盛大,动辄数以亿计的帐号,怎么能这么快呢, 于是找到了互联网现在对数据处理的发展:

对于大数据量处理,如果是互联网处理的话,一般分为下面阶段:

第一阶段,所有数据都装入一个数据库,当数据量大了肯定就会出现问题,就像刚刚说的查询,于是想办法

第二阶段,那时肯定想做缓存机制,确实可以如加上缓存Memcached,但缓存也是治标不治本,数据量太大了也是不行于是

第三阶段,master-slave模式,进行主从数据库,master提供写,slave进行读,这个适合于有写造成数据库卡的方法,XX那个还是不行,于是

第四阶段,垂直分库,这个意义还是不大,对于这种采集数据的,于是

第五阶段,进行水平分库,这个不错,记得以前从兴也是按这个分时间水平分库,其实可以分的更细点估计效果更好

 

补充一个阶段,应该还有一个阶段是内存数据库的阶段,内存数据库只是复杂的关系处理和事务等,电信计费等很多都用这个


第六阶段,用nosql做了,关于nosql怎么做可以参考google的bigtable


其实本文主要目的也是想探讨nosql对大数据量的处理:

NOSQL就是将写操作在内存中进行,定时或按某一条件将内存中的数据直接写到磁盘上,一定基础上是解决了


nosql 主要解决了:
1,高并发读写的需求 
2,海量数据访问的需求
3,数据库横向扩展性的需求

CAP理论来说,nosql是牺牲了一致性,做到了AP,一致性只是保证了最终一致性

缺点也很明显:
1,当机器挂了数据将会丢失
解决:可以考虑共享内存

补充1:其实这里可以展开了讲,一种是通过共享内存来实现

集群内存:根据的是Quorum NRW理论,比如你有N台机子用来集群,每次你进行读写数据时可以至少要同步到X个节点才算成功,所以你每次读数据时只需要读大于N-X个节点就能保持你的正确率,其实就是对数据进行的冗余备份,不过我们存的是内存,相对于直接的磁盘操作,跨网络进行内存操作可以更快;

其实还一种保证数据一致性,就是记录日志,当数据每次写操作内存时都进行日志记录,然后再在内存中进行写操作,至少很多数据库就是这样做的,如redis


2,内存的限制,内存有限当写数据操作太大的时候内存也会爆
解决:Bigtable的做法是通过bloom-filter算法合并掉相同的操作,比如UPDATE A='A' ,update A='B'时可以直接合并了


---------------------------------
基本理论基础

nosql理论基础:内存是新的硬盘,硬盘是新的磁盘

NOSQL探讨

关系型数据库都要实现事务ACID特效即:原子性(Atomicity), 一致性(Consistency), 隔离性(Isolation), 持久性(Durability)



CAP理论

Consistency 一致性

Availability -可用性

Partition -容错性





-------------------------------
抛砖引玉而已,如果有什么经验欢迎分享,我将持续关注大数据量处理
 

大多数NoSQL数据库都不支持事务,不支持SQL等,所以还是得保留关系型数据库


现在有人提到用内存数据库, 总体如果是简单业务来说,NOSQL的速度比内存数据库更快,但NOSQL最大缺点,不支持事务,不支持SQL查询等

探讨大数据量处理<续篇>

 

接上面说用到NOSQL,但这个概念太笼统,hadoop做法: (在我看来1-3点算是NOSQL产品处理的了)

 

1,首先一般是用MAP/VALUE进行分布式存储

保证可靠性:

分布式缓存,一般比如N个分布式节点,存储时同时放进M个中,你查询数据只要从N-M个中读到没此数据即为无(Quorum NRW),当然还可以进行日志记录法:

记录每次的日志操作,当机器宕机可以从日志中恢复内存中的数据,redis就有这种模式做法

 

2,然后对相同的操作进行合并 ,即MAP/reduce 操作(MapReduce)

如何reduce操作:可以通过bloom-filter 算法①初刷, 进行找出相同的对象操作,然后对它进行reduce

 

3,然后进行文件存储(文件系统)

 

 

4,进行运算(拆逻辑层)

 

 

5,入库(持久化存储层)

 

上面每一点都可以去研究,做起来都不简单;

如淘宝对应的

 1,2 Tair; 3 TFS;4HSF;5 TDDL;

 -----------------------------------------------------------------------------------------------------------------------------------------------

① bloom-filter 算法简单来说就是把一系列对象进行HASH值存储,然后定义一个足够大的BIT数组把对应位数的值设置为1,然后比较对象是否存在时可以从BIT数组中查找,当找到对应值有一个为0证明改对象肯定不存在;此算法好处是高效,空间最大利用率,但不能保证找出全是1的为存在对象,只能找出有一个为0的对象肯定不存在;

 

WEB大数据量处理的目标思路:

我认为就是用低成本的硬件做分布式,实现大数据量处理的高性能(即保证数据的可用性,只需要最终一致性),可扩展性的处理;

 

补充上面的

其实上面说的的数据库还可以很多方面的优化, 比如80/20的原则,比如树节点存储,比如其它数据库优化

 

说白了, 大数据处理就是一个字  ‘’ 

 

另:这篇文章我也是尝试研究,有偏差请指出,共同学习,文章慢慢补充中 

 

 

 NoSql学习资料http://sebug.net/paper/databases/nosql/Nosql.html

Mongodb学习资料 http://www.cnblogs.com/lipan/archive/2011/03/08/1966463.html 

posted @ 2012-09-11 16:04  小开的一天  阅读(221)  评论(0编辑  收藏  举报