记一次--------HDP3.1 spark创建表hive读不到,hive创建表spark读不到

1.修改spark配置: 
 
Advanced spark2-defaults
spark.sql.warehouse.dir  值/apps/spark/warehouse 改为hive数据存储hdfs位置:/user/hive/warehouse
Advanced spark2-hive-site-override
metastore.catalog.default 值 spark 改为 hive
 
2.到hive组件修改配置
hive.strict.managed.tables 的 true 改为 false 
(有两个 hive.strict.managed.tables)
 
 
 
重启 hive和spark即可。
posted @ 2022-02-25 16:59  二黑诶  阅读(308)  评论(0编辑  收藏  举报