scala中spark运行内存不足
摘要:
用 在spark上跑代码的时候出现错误: 发现其原因竟然是运行的时候默认的内存不足以支撑海量数据,可以用 中查看到自己代码的运行内存,即: 本机默认为1G的内存运行程序,所以我改成8G内存运行: 具体运行请看: "scala打包jar并在Linux下运行" 查看 的内存命令为: or `top` 阅读全文
posted @ 2017-04-18 08:48 TTyb 阅读(1697) 评论(1) 推荐(0) 编辑