贫民窟里的程序高手

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

如果既想在Hadoop服务器本地可以通过绝对路径如"/user/hadoop"方式访问hdfs,也想通过"hdfs://local

host:9000/user/hadoop的方式访问hdfs,此时做需要配置core-site.xml:

<property>  
    <name>fs.defaultFS</name>  
    <value>hdfs://master.domain.com:9000</value>  
</property>  

上面的配置只能让你使用"hadoop fs -ls /user/hadoop"来查看hdfs,链接方式还需要修改hdfs-site.xml:

<property>  
    <name>dfs.namenode.rpc-address</name>  
    <value>master.domain.com:9000</value>  
</property>  

此时,如果你的服务器是放在机房,并且"master.domain.com"域名在所有hadoop集群机器上已经

 

指向namenode的内网IP,那么上面的配置只会让你能在hadoop集群所在的内网机器通过"hdfs://local

host:9000/user/hadoop"访问hdfs,若需要在机房外访问hadoop的hdfs,还需要在hdfs-site.xml中增加下面

内容:

<property>  
    <name>dfs.namenode.rpc-bind-host</name>  
    <value>0.0.0.0</value>  
</property> 

其中的host"0.0.0.0"会替换上面的“dfs.namenode.rpc-address”的域名,此时重启hadoop,hadoop就会

 

监听内外两个网卡的9000端口。

posted on 2018-04-23 18:20  贫民窟里的程序高手  阅读(7873)  评论(0编辑  收藏  举报