RICH-ATONE

hive on spark运行时 ,读取不到hive元数据问题

部署Hive On Spark时spark读取Hive元数据报错:

Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.

 

解决办法:首先查看hive元数据是否启动 ps -ef | grep hive

如果未启动先启动hive元数据:

nohup hive --service metastore 2>&1 &
nohup hive --service hiveserver2 2>&1 &

如果启动依然报错,检查hive-site.xml配置文件,添加如下配置:

    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node003:9083</value>
    </property>

问题原因:出现上述的情况原因就是spark没有检测到hive存在,所以自己创建了默认元数据。

参考:https://www.jianshu.com/p/ba3bf6559670

posted on 2021-10-13 15:31  RICH-ATONE  阅读(1112)  评论(0编辑  收藏  举报

导航