个人博客转至:tybai.com

无聊就想打码,打码使我快乐


Fork me on GitHub

2017年4月18日

scala中spark运行内存不足

摘要: 用 在spark上跑代码的时候出现错误: 发现其原因竟然是运行的时候默认的内存不足以支撑海量数据,可以用 中查看到自己代码的运行内存,即: 本机默认为1G的内存运行程序,所以我改成8G内存运行: 具体运行请看: "scala打包jar并在Linux下运行" 查看 的内存命令为: or `top` 阅读全文

posted @ 2017-04-18 08:48 TTyb 阅读(1697) 评论(1) 推荐(0) 编辑

导航


不用多久

我就会升职加薪

当上总经理

出任CEO

迎娶白富美

走上人生巅峰

Pulpit rock