摘要: 1、安装jdk 因为spark是依赖java环境的,所以在安装spark之前你先确保你的电脑上有java环境。 具体怎么操作,百度"jdk安装" 2、安装spark 首先到官网下载相应的spark版本,建议直接使用spark集成环境 官网:http://spark.apache.org/downlo 阅读全文
posted @ 2016-03-13 11:33 记忆书签 阅读(303) 评论(0) 推荐(0) 编辑
摘要: 以下是个人理解,一切以官网文档为准。 http://spark.apache.org/docs/latest/api/python/pyspark.html   在开始之前,我先介绍一下,RDD是什么?       RDD是Spark中的抽象数据结构类型,任何数据在Spark中都被表示为RDD。从编 阅读全文
posted @ 2016-03-13 11:12 记忆书签 阅读(13137) 评论(0) 推荐(1) 编辑