spark快速大数据分析之读书笔记

以前总是分不清楚spark中flatmap和map的区别,现在弄明白了,总结分享给大家,先看看flatmap和map的定义。

map()是将函数用于RDD中的每个元素,将返回值构成新的RDD。

flatmap()是将函数应用于RDD中的每个元素,将返回的迭代器的所有内容构成新的RDD,这样就得到了一个由各列表中的元素组成的RDD,而不是一个列表组成的RDD。

有些拗口,看看例子就明白了。

    val rdd = sc.parallelize(List("coffee panda","happy panda","happiest panda party"))
[/code]

输入

```code
    rdd.map(x=>x).collect
[/code]

结果

```code
    res9: Array[String] = Array(coffee panda, happy panda, happiest panda party)
[/code]

输入

```code
    rdd.flatMap(x=>x.split(" ")).collect
[/code]

结果

```code
    res8: Array[String] = Array(coffee, panda, happy, panda, happiest, panda, party)
[/code]

flatMap说明白就是先map然后再flat,再来看个例子  

```code
    val rdd1 = sc.parallelize(List(1,2,3,3))
[/code]

```code
    scala> rdd1.map(x=>x+1).collect
    res10: Array[Int] = Array(2, 3, 4, 4)
[/code]

```code
    scala> rdd1.flatMap(x=>x.to(3)).collect
    res11: Array[Int] = Array(1, 2, 3, 2, 3, 3, 3)
[/code]


![在这里插入图片描述](https://img-blog.csdnimg.cn/20210608151750993.gif)
posted @ 2021-07-06 18:05  老酱  阅读(67)  评论(0编辑  收藏  举报