PyTorch——关于data.Dataloader中参数num_workers
我在复盘 动手学深度学习 代码的时候 发现了一个有趣的现象
我在运载关于data.Dataloader使用关于num_workers的参数进行多进程 避免GPU拿不到数据而产生空闲时间
官方文档对于这个参数的解释是这样的:
我在jupyter运行的时候是很正常的
但是当我想用pycharm来写的时候去发生了异常
同样的代码 却发生了RuntimeError: DataLoader worker (pid(s) 28968, 30144) exited unexpectedly的错误 ,错误直指Dataloader
按理说应该不应该才对啊 ,同样的编译器,同样的代码,在不同方式下结果应该是一致的才对
但是我把相关代码写到 main函数内的时候,却惊奇的发现可以了
我一直都没有查清楚原因,但是貌似是和pycharm的程序调用、多进程创建有关系
希望这个使用方式可以给一些人带来一些方便
若有大佬给予解答 将不胜感激
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 25岁的心里话
· 闲置电脑爆改个人服务器(超详细) #公网映射 #Vmware虚拟网络编辑器
· 零经验选手,Compose 一天开发一款小游戏!
· 因为Apifox不支持离线,我果断选择了Apipost!
· 通过 API 将Deepseek响应流式内容输出到前端