摘要: 译者:hijkzzz torch.multiprocessing 是一个本地 multiprocessing 模块的包装. 它注册了自定义的reducers, 并使用共享内存为不同的进程在同一份数据上提供共享的视图. 一旦 tensor/storage 被移动到共享内存 (见 share_memor 阅读全文
posted @ 2019-02-10 11:23 绝不原创的飞龙 阅读(34) 评论(0) 推荐(0) 编辑
摘要: 译者:hijkzzz 卷积函数 conv1d torch.nn.functional.conv1d(input, weight, bias=None, stride=1, padding=0, dilation=1, groups=1) → Tensor 对由多个输入平面组成的输入信号进行一维卷积. 阅读全文
posted @ 2019-02-10 11:21 绝不原创的飞龙 阅读(27) 评论(0) 推荐(0) 编辑
摘要: 译者:片刻 torch.cuda 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创建您分配的所有 CUDA tensors。可以使用 torch.cuda.device 上下文管理器更改所选设备。 但是,一旦分配了 tensor,就可以对其进行操作而不管所选择的 阅读全文
posted @ 2019-02-10 11:16 绝不原创的飞龙 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 译者:yportne13 作者: Nathan Inkawhich 编辑: Teng Li 在这篇教程中我们会展示如何使用 Amazon AWS 的两个多路GPU节点来设置,编写和运行 PyTorch 1.0 分布式训练程序。首先我们会介绍 AWS 设置, 然后是 PyTorch 环境配置, 最后是 阅读全文
posted @ 2019-02-10 11:15 绝不原创的飞龙 阅读(10) 评论(0) 推荐(0) 编辑
摘要: 译者:ETCartman 之前我们已经学过了许多的前馈网络. 所谓前馈网络, 就是网络中不会保存状态. 然而有时 这并不是我们想要的效果. 在自然语言处理 (NLP, Natural Language Processing) 中, 序列模型是一个核心的概念. 所谓序列模型, 即输入依赖于时间信息的模 阅读全文
posted @ 2019-02-10 11:13 绝不原创的飞龙 阅读(13) 评论(0) 推荐(0) 编辑