spark与scala版本对应查看
https://mvnrepository.com/artifact/org.apache.spark/spark-core
在spark中
<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-core -->
<dependency>
<groupId>org.apache.spark</groupId>
//2.10是指scala的版本要是2.10.x的才可以
<artifactId>spark-core_2.10</artifactId>
<version>1.1.0</version>
</dependency>
本文作者:又一岁荣枯
本文链接:https://www.cnblogs.com/java-six/p/17937289
版权声明:本作品采用知识共享署名-非商业性使用-禁止演绎 2.5 中国大陆许可协议进行许可。
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
2021-12-31 Android开发----WebView&Activity生命周期