摘要: scala和java混合的spark程序之前使用其他配置始终有报找不到包的情况,尝试了一下如下配置可以打包成功。<build> <pluginManagement> <plugins> <!-- 编译scala的插件 --> <plugin> <groupId>net.alchim31.maven< 阅读全文
posted @ 2019-05-28 10:40 人不疯狂枉一生 阅读(2471) 评论(0) 推荐(1) 编辑