摘要:
前言 最近在搞hadoop+spark+python,所以就搭建了一个本地的hadoop环境,基础环境搭建地址hadoop2.7.7 分布式集群安装与配置 本篇博客主要说明,如果搭建spark集群并集成到hadoop 安装流程 安装spark需要先安装scala 注意在安装过程中需要对应spark与 阅读全文
摘要:
环境准备 服务器四台: 四台节点统一操作操作 安装流程(所有节点,包括master与slave) 下载hadoop并安装 移动并修改权限 切换用户并配置环境变量 修改Master配置文件 修改Slave配置文件 其他操作(所有节点,包括master与slave) 启动操作 异常处理 效果图 扩展连接 阅读全文