pytorch使用docker部署后卡死现象
现象
基于pytorch的模型服务,本地裸跑代码都是正常的,一旦上docker服务部署后,程序会出现卡死现象
解决
原因是,默认情况下,pytorch会启动宿主机当前的CPU核数作为线程数去运行,一旦该docker服务是和其他服务共享机器,就容易造成CPU占用过高,出现卡死。指定pytorch使用单线程运行可解决。有如下两种方式可解决
- export OMP_NUM_THREADS=1
- torch.set_num_threads(1)
基于pytorch的模型服务,本地裸跑代码都是正常的,一旦上docker服务部署后,程序会出现卡死现象
原因是,默认情况下,pytorch会启动宿主机当前的CPU核数作为线程数去运行,一旦该docker服务是和其他服务共享机器,就容易造成CPU占用过高,出现卡死。指定pytorch使用单线程运行可解决。有如下两种方式可解决
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· 单元测试从入门到精通
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· winform 绘制太阳,地球,月球 运作规律