2017年3月28日
摘要: jdk安装 scala2.11 安装 hadoop2.7 安装 开始spark2.1.0安装 解压 重命名 配置环境变量 修改配置文件 修改 spark-defaults.conf 修改 spark-env.sh 修改 slaves 分发代码到集群节点 启动 查看进程 这个时候还没有启动hadoop 阅读全文
posted @ 2017-03-28 22:52 肖建锋 阅读(444) 评论(0) 推荐(0) 编辑