摘要: 用惯了python或者R语言的DataFrame格式,对spark的RDD编程模式一开始上手可能有点不习惯。本文简单梳理一下spark中常用的RDD操作。 1.初始化spark环境 2.读取本地文件 读取本地文件之后,一般都是转换成Row类型RDD,方便后续操作;同时RDD转成DataFrame前, 阅读全文
posted @ 2018-07-20 19:40 Solong1989 阅读(744) 评论(0) 推荐(0) 编辑