Hadoop datablock size

这是有疑惑的一个问题,因为在董西成的《Hadoop技术内幕——深入解析MapReduce架构设计与实现原理》中提到这个值是64M,而《Hadoop权威指南》中却说是128M,到底哪个是对的呢?

我觉得应该都是对的,可能是版本不同导致的不一致,后面终于在Stack OverFlow找到了答案:

在Apache Hadoop中默认是64M,Cloudera Hadoop版本中默认是128M。

ps:顺便说一下,清华大学出版社出版的《Hadoop权威指南》翻译得特别烂,实际上网上也各种吐槽这个出版社出版的各种技术书,总的来说,不值得买。

posted on 2018-12-10 16:31  dongtime  阅读(114)  评论(0编辑  收藏  举报

导航