scala程序启动时,Could not locate executable null\bin\winutils.exe in the Hadoop binaries解决方案

原因:window本地无法获取hadoop的配置

解决方法:

1)下载一个spark-2.4.6-bin-hadoop2.7压缩包到本地并解压

2)下载一个winutils.exe放到spark-2.4.6-bin-hadoop2.7\bin

做完以上两步后,重启idea,如果还不成功,再执行下面步骤。

3)在scala程序中添加如下配置:

def enterHbase(): Unit = {
    System.setProperty("hadoop.home.dir", "E:\\testscala\\spark-2.4.6-bin-hadoop2.7")
    Logger.getLogger("org").setLevel(Level.WARN)
    //------------------hbase连接部分-----------------------
    val conf = HBaseConfiguration.create()
    conf.set("hbase.zookeeper.quorum", zkIP)
    conf.set("hbase.zookeeper.property.clientPort", "2181")
    conf.set("zookeeper.znode.parent", "/hbase")

 4)在本地添加hadoop环境变量:

右键——属性——高级系统设置——环境变量

 

 

 

posted @ 2020-09-09 15:17  意如柳  阅读(308)  评论(0编辑  收藏  举报