会员
周边
捐助
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
简洁模式
...
退出登录
注册
登录
Gxjun
十亩野塘留客钓, 一轩春雨对僧棋.
博客园
联系
管理
2019年6月11日
fluid.io.load_inference_model 载入多个模型的时候会报错 -- [paddlepaddle]
摘要: 将多个模型部署到同一个服务时,会出现stack错误. 原因是program为全局. 改成这样,可以解决. solved by myself. for those who need it:use a new scope for every model scope = fluid.Scope() wit
阅读全文
posted @ 2019-06-11 12:22 龚细军
阅读(999)
评论(0)
推荐(0)
编辑
公告