ERROR SparkContext: Error initializing SparkContext.

错误详情:egalArgumentException: System memory 259522560 must be at least 471859200. Please increase heap size using the --driver-memory option or spark.driver.memory in Spark configuration.

1、第一种修改方式:

在Run --> Edit Configurations --> VM options里面设置-Xmx

修改超过512M就行,格式:-Xmx1024m

2、第二种修改方式(数字是字节需要换算)

val conf = new SparkConf()

conf.set("spark.testing.memory", "2147480000")

posted @   田领群  阅读(636)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 阿里最新开源QwQ-32B,效果媲美deepseek-r1满血版,部署成本又又又降低了!
· SQL Server 2025 AI相关能力初探
· AI编程工具终极对决:字节Trae VS Cursor,谁才是开发者新宠?
· 开源Multi-agent AI智能体框架aevatar.ai,欢迎大家贡献代码
· Manus重磅发布:全球首款通用AI代理技术深度解析与实战指南
点击右上角即可分享
微信分享提示