摘要: 一、安装Spark 1.检查基础环境hadoop,jdk 2.下载spark(已操作)略 3.解压,文件夹重命名、权限(已操作)略 4.配置文件 编辑该配置文件,在文件最后面加上如下一行内容: export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/h 阅读全文
posted @ 2022-03-02 23:51 Fat_Chan 阅读(43) 评论(0) 推荐(0) 编辑