Fork me on GitHub
摘要: 在训练深度网络时,为了减少需要训练参数的个数(比如具有simase结构的LSTM模型)、或是多机多卡并行化训练大数据大模型(比如数据并行化)等情况时,往往需要共享变量。另外一方面是当一个深度学习模型变得非常复杂的时候,往往存在大量的变量和操作,如何避免这些变量名和操作名的唯一不重复,同时维护一个条理 阅读全文
posted @ 2017-12-21 16:23 郭耀华 阅读(650) 评论(0) 推荐(0) 编辑