摘要: 简单步骤: 前提:hadoop 环境搭建(我的是伪分布式) 1、官网下载spark 2、spark部署(单机模式): (1)解压 (2)移动文件到自定义目录下(同时修改文件名-原来的名字太长) (3)修改 !配置文件:spark-env.sh [ spark与hdfs可以数据交互 ] 3、检测spa 阅读全文
posted @ 2019-03-02 17:25 丨Kouch 阅读(397) 评论(0) 推荐(0) 编辑