创建Spark-Core项目
SparkCore 是整个Spark 框架的核心,其他都是在此基础上扩展API
-
第一步,打开IDEA,新建Maven项目
-
第二步,增加 Scala 插件(前提:一配置好scala环境)
注意版本,Spark3.0 版本最好用 Scala2.12 版本(文本末尾有scala 环境安装包)
-
第三步,添加框架支持
右键项目名。选择
-
第四步,添加依赖
<dependencies>
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-core_2.12</artifactId>
<version>3.0.0</version>
</dependency>
</dependencies>
至此项目环境配置完成
scala2.12 的环境包
链接:https://pan.baidu.com/s/1xYEAdLgHf8EZF1wn4WUSUg
提取码:wahh
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· 阿里巴巴 QwQ-32B真的超越了 DeepSeek R-1吗?
· 【译】Visual Studio 中新的强大生产力特性
· 10年+ .NET Coder 心语 ── 封装的思维:从隐藏、稳定开始理解其本质意义
· 【设计模式】告别冗长if-else语句:使用策略模式优化代码结构