hive on spark 读取中文乱码

问题描述

集群默认计算引擎是 hive ,这两天自己试了一下 hive on spark 发现一个奇怪现象,首先 hive 引擎中文做简单查询或者聚合查询都正常,使用 spark 引擎简单查一个表的中文字段也没事,但是只要对 中文字段进行 group by 操作就乱码了

问题解决

在开启 spark session 后 加两个设置就好了

set spark.executor.extraJavaOptions='-Dfile.encoding=utf-8';
set spark.driver.extraJavaOptions='-Dfile.encoding=utf-8' ;

再次测试 spark session 内执行有关中文的任何查询不再出现乱码问题。

posted @   晓枫的春天  阅读(403)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 分享4款.NET开源、免费、实用的商城系统
· 全程不用写代码,我用AI程序员写了一个飞机大战
· MongoDB 8.0这个新功能碉堡了,比商业数据库还牛
· 白话解读 Dapr 1.15:你的「微服务管家」又秀新绝活了
· 记一次.NET内存居高不下排查解决与启示
点击右上角即可分享
微信分享提示