欢迎这位怪蜀黍来到《大数据集群运维(31)Spark提交任务时报beyond virtual memory limits错误 - 大码王 - 博客园》

关闭页面特效

以Spark-Client模式运行,Spark-Submit时出现了下面的错误:

复制代码
User:  hadoop  
Name:  Spark Pi  
Application Type:  SPARK  
Application Tags:   
YarnApplicationState:  FAILED  
FinalStatus Reported by AM:  FAILED  
Started:  16-五月-2017 10:03:02  
Elapsed:  14sec  
Tracking URL:  History  
Diagnostics:  Application application_1494900155967_0001 failed 2 times due to AM Container for appattempt_1494900155967_0001_000002 exited with exitCode: -103 
For more detailed output, check application tracking page:http://master:8088/proxy/application_1494900155967_0001/Then, click on links to logs of each attempt. 
Diagnostics: Container [pid=6263,containerID=container_1494900155967_0001_02_000001] is running beyond virtual memory limits. Current usage: 107.3 MB of 1 GB physical memory used; 2.2 GB of 2.1 GB virtual memory used. Killing container.
复制代码

我的SPARK-EXECUTOR-MEMORY设置的是1G,即物理内存是1G,Yarn默认的虚拟内存和物理内存比例是2.1,也就是说虚拟内存是2.1G,小于了需要的内存2.2G。解决的办法是把拟内存和物理内存比例增大,在yarn-site.xml中增加一个设置:

<property>
        <name>yarn.nodemanager.vmem-pmem-ratio</name>
        <value>2.5</value>
</property>

再重启Yarn,这样一来就能有2.5G的虚拟内存,运行时就不会出错了。

 posted on   大码王  阅读(306)  评论(0编辑  收藏  举报
编辑推荐:
· 开发者必知的日志记录最佳实践
· SQL Server 2025 AI相关能力初探
· Linux系列:如何用 C#调用 C方法造成内存泄露
· AI与.NET技术实操系列(二):开始使用ML.NET
· 记一次.NET内存居高不下排查解决与启示
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
· 被坑几百块钱后,我竟然真的恢复了删除的微信聊天记录!
· AI技术革命,工作效率10个最佳AI工具

成都

复制代码

喜欢请打赏

扫描二维码打赏

了解更多

点击右上角即可分享
微信分享提示