摘要: 第一种,通过配置文件 val sc = new SparkContext() sc.hadoopConfiguration.set("fs.defaultFS", "hdfs://cluster1"); sc.hadoopConfiguration.set("dfs.nameservices", " 阅读全文
posted @ 2017-05-29 12:00 dy9776 阅读(1715) 评论(0) 推荐(0) 编辑