scala程序启动时,Could not locate executable null\bin\winutils.exe in the Hadoop binaries解决方案

原因:window本地无法获取hadoop的配置

解决方法:

1)下载一个spark-2.4.6-bin-hadoop2.7压缩包到本地并解压

2)下载一个winutils.exe放到spark-2.4.6-bin-hadoop2.7\bin

3)在scala程序中添加如下配置即可:

复制代码
def enterHbase(): Unit = {
    System.setProperty("hadoop.home.dir", "E:\\testscala\\spark-2.4.6-bin-hadoop2.7")
    Logger.getLogger("org").setLevel(Level.WARN)
    //------------------hbase连接部分-----------------------
    val conf = HBaseConfiguration.create()
    conf.set("hbase.zookeeper.quorum", zkIP)
    conf.set("hbase.zookeeper.property.clientPort", "2181")
    conf.set("zookeeper.znode.parent", "/hbase")
复制代码

 

posted @ 2020-09-11 16:34  硅谷工具人  阅读(161)  评论(0编辑  收藏  举报
成功之道,在于每个人生阶段都要有不同的目标,并且通过努力实现自己的目标,毕竟人生不过百年! 所有奋斗的意义在于为个人目标实现和提升家庭幸福,同时能推进社会进步和国家目标! 正如古人讲的正心诚意格物致知,修身齐家治国平天下。