公司windows电脑搭建spark开发环境遇到的问题

报错如下:

      The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: ---------

Caused by: java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS should be writable. Current permissions are: rw-rw-rw-
    at org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:612)
    at org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:554)
    at org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:508)
    ... 33 more

看报错日志是权限问题,于是执行加权限操作,命令如下:

%HADOOP_HOME%\bin\winutils.exe chmod 777 d:\tmp\hive

执行完后查看权限

%HADOOP_HOME%\bin\winutils.exe ls d:\tmp\hive

发现又出现如下多个?的异常,具体如下:

FindFileOwnerAndPermission error (1789): ????????????????

 

执行idea上的spark测试代码,发现还是报权限问题的错误,这说明权限根本没给到,最后发现我的系统无法连接到电脑的域控制器,因此必须连接到VPN然后执行上诉赋权限的命令,此时再查看权限,结果如下图

 

 再次再idea上执行spark的测试代码,正常运行

posted @ 2022-07-13 22:26  一y样  阅读(159)  评论(0编辑  收藏  举报