联合会员
周边
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
f-1000
博客园
首页
新随笔
联系
订阅
管理
随笔 - 39 文章 - 0 评论 - 0 阅读 -
4256
2022年7月20日
Spark API
摘要: Spark API 创建spark环境 方法一:SparkConf //spark环境配置对象 val conf = new SparkConf() //设置spark任务的名称 conf.setAppName("Demo1WordCount") //设置spark运行模式,local:本地运行 c
阅读全文
posted @ 2022-07-20 11:12 +1000
阅读(390)
评论(0)
推荐(0)
编辑
昵称:
+1000
园龄:
2年8个月
粉丝:
2
关注:
2
+加关注
<
2025年3月
>
日
一
二
三
四
五
六
23
24
25
26
27
28
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
1
2
3
4
5
搜索
常用链接
我的随笔
我的评论
我的参与
最新评论
我的标签
随笔分类
flume(4)
hadoop(7)
Hbase(10)
hive(14)
spark(4)
随笔档案
2022年7月(24)
2022年6月(15)
阅读排行榜
1. spark与MapReduce的区别(1345)
2. Spark API(390)
3. HBase-day07 Region的分裂策略(328)
4. HBase-day01 HBase基本概述和相关概念(227)
5. flume-day01 flume基本介绍(128)
点击右上角即可分享