Hadoop相关问题
1.Slave节点要存储数据,所以它的磁盘越大越好。(错误)
分析:一旦Slave节点宕机,数据恢复是一个难题
2.hadoop dfsadmin –report 命令用于检测 HDFS 损坏块。(错误)
分析:hadoop dfsadmin -report 用这个命令可以快速定位出哪些节点down掉了,HDFS的容量以及使用了多少,以及每个节点的硬盘使用情况。
3.Hadoop环境变量中的 HADOOP_HEAPSIZE 用于设置所有 Hadoop 守护线程的内存。它默认是 200 GB。(错误)
分析:hadoop为各个守护进程(NN,DN,SNN等)统一分配的内存在hadoop-env.sh中设置,参数为HADOOP_HEAPSIZE,默认为1000M。