loyung

  博客园 :: 首页 :: 博问 :: 闪存 :: 新随笔 :: 联系 :: 订阅 订阅 :: 管理 ::

2018年10月25日

摘要: Ubuntn16.04.3安装Hadoop3.0+scale2.12+spark2.2 对比参照此博文、bovenson 前言:因为安装的Hadoop、Scale是基于JAVA的应用程序,所以必须先安装JDK。Spark是利用scale语言搭建,因此安装完jdk还需要安装scale才能让spark跑 阅读全文
posted @ 2018-10-25 17:46 loyung 阅读(456) 评论(0) 推荐(0) 编辑