torch进行多GPU卡训练时,报错RuntimeError: Address already in use
torch进行GPU卡训练时,报错RuntimeError: Address already in use
参考:https://www.it610.com/article/1279180977062559744.htm
问题在于,TCP的端口被占用,一种解决方法是,运行程序的同时指定端口,端口号随意给出:
--master_port 29501
例如:
nohup python3 -m torch.distributed.launch --nproc_per_node 4 --master_port 29501 main.py >> train.log &
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· TypeScript + Deepseek 打造卜卦网站:技术与玄学的结合
· Manus的开源复刻OpenManus初探
· AI 智能体引爆开源社区「GitHub 热点速览」
· 从HTTP原因短语缺失研究HTTP/2和HTTP/3的设计差异
· 三行代码完成国际化适配,妙~啊~