随笔分类 -  ApacheCN

上一页 1 ··· 4 5 6 7 8 9 10 11 下一页
摘要:译者: "yuange250" 跟绝大部分基于连续存储的数据结构类似,本质上是一个单一数据类型的一维连续数组(array)。 每一个 " " 都有一个与之相对应的 对象,两者存储数据的数据类型(data type)保持一致。 下面以数据类型为float的 为例介绍一下 的成员函数。 byte()函数 阅读全文
posted @ 2019-02-17 18:46 ApacheCN_飞龙 阅读(99) 评论(0) 推荐(0) 编辑
摘要:译者: "阿远" 每个 对象都有以下几个属性: " " , " " , 和 " " 。 torch.dtype " " 属性标识了 " " 的数据类型。PyTorch 有八种不同的数据类型: | Data type | dtype | Tensor types | | | | | | 32 bit 阅读全文
posted @ 2019-02-17 18:45 ApacheCN_飞龙 阅读(261) 评论(0) 推荐(0) 编辑
摘要:译者: "yuange250" 最佳方案 保存模型的推荐方法 Pytorch主要有两种方法可用于序列化和保存一个模型。 第一种只存取模型的参数(更为推荐): 保存参数: 读取参数: 第二种方法则将整个模型都保存下来: 读取的时候也是读取整个模型: " 阅读全文/改进本文 " 阅读全文
posted @ 2019-02-17 18:44 ApacheCN_飞龙 阅读(65) 评论(0) 推荐(0) 编辑
摘要:译者: "cvley" " " 是 Python 的 " " ") 的直接替代模块。它支持完全相同的操作,但进行了扩展,这样所有的张量就可以通过一个 " " ") 进行传递,将数据移动到共享内存并只将句柄传递到另一个进程。 注意 当一个 " " 传递到另一个进程时, " " 的数据是共享的。如果 " 阅读全文
posted @ 2019-02-17 18:43 ApacheCN_飞龙 阅读(124) 评论(0) 推荐(0) 编辑
摘要:参与方式:https://github.com/apachecn/flink doc zh/blob/master/CONTRIBUTING.md 整体进度:https://github.com/apachecn/flink doc zh/issues/13 项目仓库:https://github. 阅读全文
posted @ 2019-02-16 18:25 ApacheCN_飞龙 阅读(39) 评论(0) 推荐(0) 编辑
摘要:参与方式:https://github.com/apachecn/hbase doc zh/blob/master/CONTRIBUTING.md 整体进度:https://github.com/apachecn/hbase doc zh/issues/1 项目仓库:https://github.c 阅读全文
posted @ 2019-02-15 10:12 ApacheCN_飞龙 阅读(57) 评论(0) 推荐(0) 编辑
摘要:译者: "hijkzzz" torch.multiprocessing 是一个本地 " " ") 模块的包装. 它注册了自定义的reducers, 并使用共享内存为不同的进程在同一份数据上提供共享的视图. 一旦 tensor/storage 被移动到共享内存 (见 " " ), 将其发送到任何进程不 阅读全文
posted @ 2019-02-10 11:23 ApacheCN_飞龙 阅读(987) 评论(0) 推荐(0) 编辑
摘要:译者: "hijkzzz" 卷积函数 conv1d 对由多个输入平面组成的输入信号进行一维卷积. 有关详细信息和输出形状, 请参见 " " . 注意 在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置 来尝试使操作具有 阅读全文
posted @ 2019-02-10 11:21 ApacheCN_飞龙 阅读(913) 评论(0) 推荐(0) 编辑
摘要:译者: "hijkzzz" 警告 这个API目前还处于试验阶段,可能在不久的将来会发生变化。 Torch支持COO(rdinate )格式的稀疏张量,这可以有效地存储和处理大多数元素为零的张量。 稀疏张量表示为一对稠密张量:一个值张量和一个二维指标张量。一个稀疏张量可以通过提供这两个张量,以及稀疏张 阅读全文
posted @ 2019-02-10 11:20 ApacheCN_飞龙 阅读(1196) 评论(0) 推荐(0) 编辑
摘要:译者: "hijkzzz" " " 是一种包含单一数据类型元素的多维矩阵. Torch定义了八种CPU张量类型和八种GPU张量类型: | Data type | dtype | CPU tensor | GPU tensor | | | | | | | 32 bit floating point | 阅读全文
posted @ 2019-02-10 11:18 ApacheCN_飞龙 阅读(1109) 评论(0) 推荐(0) 编辑
摘要:译者: "片刻" " " 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创建您分配的所有 CUDA tensors。可以使用 " " 上下文管理器更改所选设备。 但是,一旦分配了 tensor,就可以对其进行操作而不管所选择的设备如何,结果将始终与 tensor 阅读全文
posted @ 2019-02-10 11:17 ApacheCN_飞龙 阅读(981) 评论(0) 推荐(0) 编辑
摘要:译者: "yportne13" 作者 : "Nathan Inkawhich" 编辑 : "Teng Li" 在这篇教程中我们会展示如何使用 Amazon AWS 的两个多路GPU节点来设置,编写和运行 PyTorch 1.0 分布式训练程序。首先我们会介绍 AWS 设置, 然后是 PyTorch 阅读全文
posted @ 2019-02-10 11:15 ApacheCN_飞龙 阅读(959) 评论(0) 推荐(0) 编辑
摘要:译者: "ETCartman" 之前我们已经学过了许多的前馈网络. 所谓前馈网络, 就是网络中不会保存状态. 然而有时 这并不是我们想要的效果. 在自然语言处理 (NLP, Natural Language Processing) 中, 序列模型是一个核心的概念. 所谓序列模型, 即输入依赖于时间信 阅读全文
posted @ 2019-02-10 11:13 ApacheCN_飞龙 阅读(827) 评论(0) 推荐(0) 编辑
摘要:【主页】 "apachecn.org" 【Github】 "@ApacheCN" 暂时下线: "社区" 暂时下线: "cwiki 知识库" 自媒体平台 "微博:@ApacheCN" "知乎:@ApacheCN" "CSDN" "简书" "OSChina" "博客园" 我们不是 Apache 的官方组 阅读全文
posted @ 2019-02-09 11:19 ApacheCN_飞龙 阅读(870) 评论(0) 推荐(0) 编辑
摘要:【主页】 "apachecn.org" 【Github】 "@ApacheCN" 暂时下线: "社区" 暂时下线: "cwiki 知识库" 自媒体平台 "微博:@ApacheCN" "知乎:@ApacheCN" "CSDN" "简书" "OSChina" "博客园" 我们不是 Apache 的官方组 阅读全文
posted @ 2019-02-04 12:10 ApacheCN_飞龙 阅读(1009) 评论(0) 推荐(0) 编辑
摘要:译者: "guobaoyo" 示例:从Pytorch到Caffe2的端对端AlexNet模型 这里是一个简单的脚本程序,它将一个在 torchvision 中已经定义的预训练 AlexNet 模型导出到 ONNX 格式. 它会运行一次,然后把模型保存至 : 得到的 是一个 protobuf 二值文件 阅读全文
posted @ 2019-02-03 16:38 ApacheCN_飞龙 阅读(1400) 评论(0) 推荐(0) 编辑
摘要:译者: "bdqfork" 这个包添加了对CUDA张量类型的支持,它实现了与CPU张量同样的功能,但是它使用GPU进计算。 它是懒加载的,所以你可以随时导入它,并使用 " " 来决定是否让你的系统支持CUDA。 "CUDA semantics" 有关于使用CUDA更详细的信息。 返回一个cublas 阅读全文
posted @ 2019-02-03 16:30 ApacheCN_飞龙 阅读(1118) 评论(0) 推荐(0) 编辑
摘要:译者: "冯宝宝" 可以通过 " " 或 " " 访问 " " 的数字属性。 torch.finfo " " 是一个用来表示浮点 " " 的数字属性的对象(即 ,`torch.float64 torch.float16`)。 这类似于 "numpy.finfo" 。 " " 提供以下属性: | 名称 阅读全文
posted @ 2019-02-03 16:29 ApacheCN_飞龙 阅读(864) 评论(0) 推荐(0) 编辑
摘要:译者: "冯宝宝" 许许多多的PyTorch操作都支持 " " ")。 简而言之,如果PyTorch操作支持广播,那么它的Tensor参数可以自动扩展为相同的类型大小(不需要复制数据)。 一般语义 如果遵守以下规则,则两个张量是“可广播的”: 每个张量至少有一个维度; 遍历张量维度大小时,从末尾随开 阅读全文
posted @ 2019-02-03 16:28 ApacheCN_飞龙 阅读(882) 评论(0) 推荐(0) 编辑
摘要:译者: "冯宝宝" 本说明将概述autograd(自动求导)如何工作并记录每一步操作。了解这些并不是绝对必要的,但我们建议您熟悉它,因为它将帮助你编写更高效,更清晰的程序,并可以帮助您进行调试。 反向排除子图 每个张量都有一个标志: ,允许从梯度计算中细致地排除子图,并可以提高效率。 只要有单个输入 阅读全文
posted @ 2019-02-03 16:27 ApacheCN_飞龙 阅读(954) 评论(0) 推荐(0) 编辑

上一页 1 ··· 4 5 6 7 8 9 10 11 下一页