摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 检查JDK echo $JAVA_HOME java -version 检查Hadoop start-dfs.sh jps 2.查看spark 3.配置文件 export SPARK_HOME=/usr/local/spark export 阅读全文
posted @ 2022-03-05 21:38 Sjh_code 阅读(55) 评论(0) 推荐(0) 编辑