随笔分类 -  spark

摘要:Hadoop2.6.5+spark2.3.3+jdk1.8.0+Scala2.11.8 配置spark集群之前,要先安装好jdk和Scala 这里只做简要说明(这两个的安装和配置都类似,大概步骤如下): 1、下载对应的压缩包上传至Linux系统; 2、到对应的目录下解压压缩包 3、配置环境变量 4、 阅读全文
posted @ 2021-02-03 14:12 ruishu_0726 阅读(503) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示