摘要:
1、安装jdk 因为spark是依赖java环境的,所以在安装spark之前你先确保你的电脑上有java环境。 具体怎么操作,百度"jdk安装" 2、安装spark 首先到官网下载相应的spark版本,建议直接使用spark集成环境 官网:http://spark.apache.org/downlo 阅读全文
摘要:
以下是个人理解,一切以官网文档为准。 http://spark.apache.org/docs/latest/api/python/pyspark.html 在开始之前,我先介绍一下,RDD是什么? RDD是Spark中的抽象数据结构类型,任何数据在Spark中都被表示为RDD。从编 阅读全文