摘要: 今天同事在服务区上面装的是最新版本的hadoop3.10和spark2.3.1,因为用scala开发, 所以我想用sbt进行开发。过程中遇到各种坑,刚开始用的jdk10,结果也报错,后来改成jdk1.8. 又报了新的错误。开始用的是scala2.12.6 如果不要使用spark的纯scala项目则不 阅读全文
posted @ 2018-08-03 19:32 残阳飞雪 阅读(5983) 评论(0) 推荐(0) 编辑