摘要:
在使用spark on yarn启动spark-shell时,发现报错: 是说找不到主机名为namenode的主机,那么应该是配置文件出错了。 经过检查,发现是spark-defaults.conf文件配置错误,配置的时候直接将上面复制了下来,导致忘了修改为node1,所以配置时一定要细心 更改后完 阅读全文
摘要:
一.情况描述 使用idea +scala+spark,运行程序代码如下: package cn.idcast.hello import org.apache.spark.rdd.RDD import org.apache.spark import org.apache.spark.SparkConf 阅读全文
摘要:
一.情况描述 启动hadoop后发现无法打开hdfs web界面,50070打不开,于是jps发现少了一个namenode: 查看日志信息,发现如下报错: 2022-01-03 23:54:10,993 INFO org.apache.hadoop.hdfs.server.namenode.FSIm 阅读全文