摘要: 4. Hadoop相关配置及Executor环境变量的设置 4.1 Hadoop相关配置信息 默认情况下,Spark使用HDFS作为分布式文件系统,所以需要获取Hadoop相关配置信息的代码如下: 获取的配置信息包括: 将Amazon S3文件系统的AccessKeyId和SecretAccessK 阅读全文
posted @ 2018-07-15 21:44 牧梦者 阅读(716) 评论(0) 推荐(0) 编辑
摘要: 5. 创建任务调度器TaskScheduler TaskScheduler也是SparkContext的重要组成部分,负责任务的提交,并且请求集群管理器对任务调度。TaskScheduler也可以看作任务调度的客户端。创建TaskScheduler的代码如下: createTaskScheduler 阅读全文
posted @ 2018-07-15 21:43 牧梦者 阅读(495) 评论(0) 推荐(0) 编辑
摘要: 6.创建和启动DAGScheduler DAGScheduler主要用于在任务正式交给TaskSchedulerImpl提交之前做一些准备工作,包括:创建Job,将DAG中的RDD划分到不同的Stage,提交Stage,等等。创建DAGScheduler的代码如下: DAGScheduler的数据结 阅读全文
posted @ 2018-07-15 21:40 牧梦者 阅读(277) 评论(0) 推荐(0) 编辑
摘要: 7. TaskScheduler的启动 第五节介绍了TaskScheduler的创建,要想TaskScheduler发挥作用,必须要启动它,代码: TaskScheduler在启动的时候,实际调用了backend的start方法,即同时启动了backend。local模式下,这里的backend是l 阅读全文
posted @ 2018-07-15 21:38 牧梦者 阅读(389) 评论(0) 推荐(0) 编辑