摘要: 在使用hive3.1.2和spark3.1.2配置hive on spark的时候,发现官方下载的hive3.1.2和spark3.1.2不兼容,hive3.1.2对应的版本是spark2.3.0,而spark3.1.2对应的hadoop版本是hadoop3.2.0。 所以,如果想要使用高版本的hi 阅读全文
posted @ 2021-06-15 10:35 D-Arlin 阅读(7676) 评论(11) 推荐(3) 编辑