R内存溢出
问题描述
当我使用R处理数据的时候,遇到大的数据就会容易内存溢出报错,报错信息如下:
vector memory exhausted (limit reached?)
问题解决方案1
R语言作为把数据存在内存里面的软件,清除掉不用的对象是一个简单即时可用的办法:
rm(large_df, large_list, large_vector, temp_variables)
问题解决方案2
其次根据搜索可以得到,大家给出了设置R的内存缓存的解决方案:
#首先需要安装这个包
library(usethis)
#这个命令会在R的家目录下创建一个.Renviro文件
usethis::edit_r_environ()
• Modify '/Users/chunhui/.Renviron'
• Restart R for changes to take effect
#以设置缓存为100G举例,最后在.Renviro文件里面输入以下代码:
R_MAX_VSIZE=100Gb
转载自:http://xuchunhui.top/2022/04/03/R%E8%AF%AD%E8%A8%80%E8%A7%A3%E5%86%B3%E5%86%85%E5%AD%98%E6%BA%A2%E5%87%BA/
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 分享一个免费、快速、无限量使用的满血 DeepSeek R1 模型,支持深度思考和联网搜索!
· 基于 Docker 搭建 FRP 内网穿透开源项目(很简单哒)
· ollama系列1:轻松3步本地部署deepseek,普通电脑可用
· 按钮权限的设计及实现
· 【杂谈】分布式事务——高大上的无用知识?