安装SPARK和HADOOP

2022/12/09下午,在本机win11上配置hadoopspark 成功。以后要注意的几个问题:

1、安装的版本hadoop-3.2.3spark-3.2.3-bin-hadoop3.2jre1.8.0_192

2、启动haddop之前,要修改hadoop-env.cmd这个文件,set JAVA_HOME= C:\Java\jdk1.8.0_192\   (目录不能有空格,后面不能有\bin

3、Spark-shell启动,要先修改JAVA_HOME的值 C:\Progra~2\Java\jre1.8.0_192  Progra~2 原来是 Program Files (x86) 因为还有一个Program Files ,所以Program Files (x86)排第二个,后面也不能带有\BIN\

posted on 2022-12-09 16:17  宇宙毒蛇  阅读(160)  评论(0编辑  收藏  举报