(三)spark集群DHCP IP变化后的处理

  学校的网比较特殊(本人比较菜),需要DHCP获得地址,那么有时候IP被占用了,应该如何应对呢?

  1)修改/etc/hosts

    

  2) 修改spark-env.sh 里的 Master 地址 ,Master对应spark1 的地址 ,source使其 生效

  3)hdfs启动若有问题,则删掉 tmp ,data 重新建立相应文件夹,并且格式化 namenode #hadoop namenode -format,再启动就好

  按照以上步骤处理完毕,应该就没问题了

posted @ 2016-06-12 21:20  ooon  阅读(390)  评论(0编辑  收藏  举报