摘要: 写给自己的话: 对于大数据开发的工作要求,spark随时可见。所以要下定决心好好看一看spark相关的技术。 学习目录: 第一步是配置spark环境:包括linux系统的安装,java,ssh,Hadoop,Scala,spark的安装与环境变量设置。 第二步:java学习。 第三步:Hadoop学 阅读全文
posted @ 2019-02-26 13:22 进阶仙女 阅读(849) 评论(0) 推荐(2) 编辑