Spark环境搭建遇到的问题
1.始终找不到Hive表的问题
原因:官方编译后的Spark1.2.0+hadoop2.4与hadoop2.4.1不匹配
解决方法有两个:
a.将Hadoop2.4.1替换为2.4.0版本
b.重新编译Spark1.2.0
本文基于署名 2.5 中国大陆许可协议发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名孙镜涛(包含链接),具体操作方式可参考此处。如您有任何疑问或者授权方面的协商,请给我留言。
1.始终找不到Hive表的问题
原因:官方编译后的Spark1.2.0+hadoop2.4与hadoop2.4.1不匹配
解决方法有两个:
a.将Hadoop2.4.1替换为2.4.0版本
b.重新编译Spark1.2.0
本文基于署名 2.5 中国大陆许可协议发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名孙镜涛(包含链接),具体操作方式可参考此处。如您有任何疑问或者授权方面的协商,请给我留言。
本文基于署名 2.5 中国大陆许可协议发布,欢迎转载,演绎或用于商业目的,但是必须保留本文的署名孙镜涛(包含链接)。如您有任何疑问或者授权方面的协商,请给我留言。