RICH-ATONE

hive on spark运行时 ,读取不到hive元数据问题

部署Hive On Spark时spark读取Hive元数据报错:

Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.

 

解决办法:首先查看hive元数据是否启动 ps -ef | grep hive

如果未启动先启动hive元数据:

nohup hive --service metastore 2>&1 &
nohup hive --service hiveserver2 2>&1 &

如果启动依然报错,检查hive-site.xml配置文件,添加如下配置:

    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node003:9083</value>
    </property>

问题原因:出现上述的情况原因就是spark没有检测到hive存在,所以自己创建了默认元数据。

参考:https://www.jianshu.com/p/ba3bf6559670

posted on   RICH-ATONE  阅读(1149)  评论(0编辑  收藏  举报

编辑推荐:
· AI与.NET技术实操系列:向量存储与相似性搜索在 .NET 中的实现
· 基于Microsoft.Extensions.AI核心库实现RAG应用
· Linux系列:如何用heaptrack跟踪.NET程序的非托管内存泄露
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
历史上的今天:
2020-10-13 hive中case when的两种使用方法

导航

统计信息

点击右上角即可分享
微信分享提示