摘要: Spark下生成2000w测试数据(每条记录150列) 使用spark生成大量数据过程中遇到问题,如果sc.parallelize(fukeData, 64);的记录数特别大比如500w,1000w时,会特别慢,而且会抛出内存溢出over head错误。解决方案,一次生成的数据量不高于100w,多次 阅读全文
posted @ 2018-10-31 18:33 cctext 阅读(1781) 评论(0) 推荐(0) 编辑