摘要: 译者:bdqfork 这个包添加了对CUDA张量类型的支持,它实现了与CPU张量同样的功能,但是它使用GPU进计算。 它是懒加载的,所以你可以随时导入它,并使用 is_available() 来决定是否让你的系统支持CUDA。 CUDA semantics 有关于使用CUDA更详细的信息。 torc 阅读全文
posted @ 2019-02-03 16:31 绝不原创的飞龙 阅读(17) 评论(0) 推荐(0) 编辑
摘要: 译者:冯宝宝 许许多多的PyTorch操作都支持NumPy Broadcasting Semantics。 简而言之,如果PyTorch操作支持广播,那么它的Tensor参数可以自动扩展为相同的类型大小(不需要复制数据)。 一般语义 如果遵守以下规则,则两个张量是“可广播的”: 每个张量至少有一个维 阅读全文
posted @ 2019-02-03 16:27 绝不原创的飞龙 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 译者:冯宝宝 本说明将概述autograd(自动求导)如何工作并记录每一步操作。了解这些并不是绝对必要的,但我们建议您熟悉它,因为它将帮助你编写更高效,更清晰的程序,并可以帮助您进行调试。 反向排除子图 每个张量都有一个标志:requires_grad,允许从梯度计算中细致地排除子图,并可以提高效率 阅读全文
posted @ 2019-02-03 16:26 绝不原创的飞龙 阅读(9) 评论(0) 推荐(0) 编辑
摘要: 译者:mengfu188 作者: Sean Robertson 在这个项目中,我们将教一个把把法语翻译成英语的神经网络。 [KEY: > input, = target, < output] > il est en train de peindre un tableau . = he is pain 阅读全文
posted @ 2019-02-03 15:30 绝不原创的飞龙 阅读(14) 评论(0) 推荐(0) 编辑
摘要: 译者:冯宝宝 在本教程中,我们将介绍如何使用ONNX将PyTorch中定义的模型转换为ONNX格式,然后将其加载到Caffe2中。一旦进入Caffe2,我们就可以运行模型来仔细检查它是否正确导出,然后我们展示了如何使用Caffe2功能(如移动导出器)在移动设备上执行模型。 在本教程中,你需要安装on 阅读全文
posted @ 2019-02-03 15:22 绝不原创的飞龙 阅读(23) 评论(0) 推荐(0) 编辑
摘要: 译者:cangyunye 作者: Nathan Inkawhich 如果你正在阅读这篇文章,希望你能理解一些机器学习模型是多么有效。现在的研究正在不断推动ML模型变得更快、更准确和更高效。然而,在设计和训练模型中经常会忽视的是安全性和健壮性方面,特别是在面对欺骗模型的对手时。 本教程将提高您对ML模 阅读全文
posted @ 2019-02-03 15:20 绝不原创的飞龙 阅读(11) 评论(0) 推荐(0) 编辑
摘要: 译者:cangyunye 作者: Matthew Inkawhich 本教程将介绍如何是seq2seq模型转换为PyTorch可用的前端混合Torch脚本。 我们要转换的模型是来自于聊天机器人教程 Chatbot tutorial. 你可以把这个教程当做Chatbot tutorial的第二篇章,并 阅读全文
posted @ 2019-02-03 15:13 绝不原创的飞龙 阅读(10) 评论(0) 推荐(0) 编辑