摘要: 一、Spark安装 1.检查基础环境hadoop,jdk 2.下载spark 3.解压,文件夹重命名、权限 4.配置文件 编辑配置文件,在文件中加上 export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) 保存配置文 阅读全文
posted @ 2022-03-08 18:37 阿斯顿法定 阅读(22) 评论(0) 推荐(0) 编辑