会员
周边
众包
新闻
博问
闪存
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Bean_zheng
博客园
首页
新随笔
联系
订阅
管理
2018年8月4日
用Spark做单表关联
摘要: ##按照hadoop的思想胡乱搞了一下,但是结果不对。。。。 ##需要再思考 from pyspark import SparkContext sc = SparkContext('local','STJoin') rdd = sc.textFile("file:///usr/local/spark
阅读全文
posted @ 2018-08-04 10:48 Bean_zheng
阅读(192)
评论(0)
推荐(0)
编辑
公告