hive on spark运行时 ,读取不到hive元数据问题
部署Hive On Spark时spark读取Hive元数据报错:
Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)' FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.
解决办法:首先查看hive元数据是否启动 ps -ef | grep hive
如果未启动先启动hive元数据:
nohup hive --service metastore 2>&1 & nohup hive --service hiveserver2 2>&1 &
如果启动依然报错,检查hive-site.xml配置文件,添加如下配置:
<property> <name>hive.metastore.uris</name> <value>thrift://node003:9083</value> </property>
问题原因:出现上述的情况原因就是spark没有检测到hive存在,所以自己创建了默认元数据。
posted on 2021-10-13 15:31 RICH-ATONE 阅读(1112) 评论(0) 编辑 收藏 举报