2020年2月1日
摘要: SparkContext是编写Spark程序用到的第一个类,是Spark的主要入口点,用于连接Spark集群、创建RDD、累加器和广播变量,是Spark程序的根本。编写不同类型的Spark程序,使用的SparkContext是不同的Scala 使用SparkContextJava 使用JavaSpa 阅读全文
posted @ 2020-02-01 20:29 啥123 阅读(119) 评论(0) 推荐(0) 编辑