Spark 读入文件后如何标记行号

Spark读入本地文件后,成为MapPartitionsRDD,可以使用zipWithIndex,转换成ZippedWithIndexRDD:

QQ截图20150709151117

 

查看结果,每一行变为二元组“(内容,索引)”,索引从0开始:

(# Apache Spark,0)

("",1)

(Spark is a fast and general cluster computing system for Big Data. It provides,2)

……

posted @ 2015-07-09 15:52  gOOner黑骑士  阅读(1656)  评论(0编辑  收藏  举报