我在这里主要说明一下Hadoop的replication policies。
我们知道当我们要write data到datanode时,首先要通过namenode确定文件是否已经存在,若不存在则DataStreamer会请求namenode确定新分配的block的位置,然后就行write。
具体namenode如何确定选择哪个datanode存储数据呢?这里namenode会参考可靠性,读写的带宽等因素来确定。具体如下说明:
假设replica factor=3,Hadoop会将第一个replica放到client node里,这里node是随机选择的,当然hadoop还是想不要选择过于busy过于full的node;
第二个replica会随机选择和第一个不在同一rack的node;
第三个replica放到和第二个一样的rack里,但是随机选择一个不同的node。
如果replica factor更大则其他副本随即在cluster里选择。当然这里hadoop还是随机的,尽管我们都知道尽量不要吧更多的replica放到同一个rack里,这不仅影响可靠性而且读写的带宽有可能成为瓶颈。
当replica的location确定之后,write的pipline就会建成,里面是被分解的data packets,然后按照网络的拓扑结构进行操作。
总的来说,这个策略综合考虑了
可靠性:blocks存储在两个不同的rack里;
写带宽:写操作只用经过一个网络转换器network switch;
读性能:可以选择从两个rack中读数据;
分布性:client只是将block写入本地rack一次。