上一页 1 ··· 136 137 138 139 140 141 142 143 144 ··· 273 下一页
摘要: TVM部署预定义模型 本文通过深度学习框架量化的模型加载到TVM中。预量化的模型导入是在TVM中提供的量化支持之一。 本文演示如何加载和运行由PyTorch,MXNet和TFLite量化的模型。加载后,可以在任何TVM支持的硬件上运行已编译的量化模型。 首先,必要输入 from PIL import 阅读全文
posted @ 2021-03-27 06:26 吴建明wujianming 阅读(581) 评论(0) 推荐(0) 编辑
摘要: Relay外部库使用 本文介绍如何将cuDNN或cuBLAS等外部库与Relay一起使用。 Relay内部使用TVM生成目标特定的代码。例如,使用cuda后端,TVM为用户提供的网络中的所有层生成cuda内核。有时将各种供应商开发的外部库合并到Relay中也很有帮助。幸运的是,TVM具有透明地调用这 阅读全文
posted @ 2021-03-27 06:06 吴建明wujianming 阅读(189) 评论(0) 推荐(0) 编辑
摘要: ARM CPU自动调度神经网络 对特定设备和工作负载进行自动调度,对于获得最佳性能至关重要。通过RPC使用自动调度器为ARM CPU调度整个神经网络。 为了自动调度神经网络,将网络划分为小的子图,进行独立调度。每个子图被视为一个搜索任务。任务调度程序对时间进行分片,为这些任务动态分配时间资源。任务调 阅读全文
posted @ 2021-03-27 05:49 吴建明wujianming 阅读(311) 评论(0) 推荐(0) 编辑
摘要: TVM Pass IR如何使用 随着Relay / tir中优化遍数的增加,执行并手动维护其依赖关系变得很棘手。引入了一个基础结构来管理优化过程,并应用于TVM堆栈中IR的不同层。 Relay / tir程序的优化可以以各种粒度应用,即分别使用tvm.relay.transform.Function 阅读全文
posted @ 2021-03-26 06:08 吴建明wujianming 阅读(566) 评论(0) 推荐(0) 编辑
摘要: 自定义pass编写 TVM是一个框架,抽象了机器学习加速器的异质性。有时,用户可能需要自定义一些分析和IR转​​换,使TVM适应自己的专用硬件。本文可帮助用户在TVM中编写自定义pass。 先决条件 在阅读本文之前,假设读者已经熟悉以下主题: 在TVM中编写算法并进行调度。否则,请参见示例教程,例如 阅读全文
posted @ 2021-03-26 05:47 吴建明wujianming 阅读(293) 评论(0) 推荐(0) 编辑
摘要: Dockerfile构建实践 本文介绍了用于构建有效图像的推荐最佳实践和方法。 Docker通过从一个Dockerfile文本文件中读取指令来自动构建映像,该文本文件按顺序包含构建给定映像所需的所有命令。ADockerfile遵循特定的格式和指令集,可以在Dockerfile参考中找到该指令。 Do 阅读全文
posted @ 2021-03-18 06:17 吴建明wujianming 阅读(110) 评论(0) 推荐(0) 编辑
摘要: Docker基本原理概述 Docker是一个用于开发,交付和运行应用程序的开放平台。Docker能够将应用程序与基础架构分开,从而可以快速交付软件。借助Docker,可以以与管理应用程序相同的方式来管理基础架构。通过利用Docker的快速交付,测试和部署代码的方法,可以显着减少编写代码和在生产环境中 阅读全文
posted @ 2021-03-18 05:51 吴建明wujianming 阅读(262) 评论(0) 推荐(0) 编辑
摘要: 台积电5nm光刻技术 在IEEE IEDM会议上,台积电发表了一篇论文,概述了其5nm工艺的初步成果。对于目前使用N7或N7P工艺的客户来说,下一步将会采用此工艺,因为这两种工艺共享了一些设计规则。新的5nm制程使用了台积电的第五代FinFET技术,在7纳米基础上提供一个完整的工艺节点,并使用EUV 阅读全文
posted @ 2021-03-17 06:02 吴建明wujianming 阅读(1512) 评论(0) 推荐(0) 编辑
摘要: Halide应用开发 1. 基本原理 1.1、介绍 随着人工智能的普及,深度学习网络的不断涌现,为了让各硬件(CPU, GPU, NPU,...)能够支持深度学习应用,各硬件芯片需要软件库去支持高性能的深度学习张量运算。目前,这些高性能计算库主要由资深HPC工程师(高性能计算优化工程师)进行开发,为 阅读全文
posted @ 2021-03-16 06:13 吴建明wujianming 阅读(329) 评论(0) 推荐(0) 编辑
摘要: Octave Convolution卷积 MXNet implementation 实现for: Drop an Octave: Reducing Spatial Redundancy in Convolutional Neural Networks with Octave Convolution 阅读全文
posted @ 2021-03-15 06:09 吴建明wujianming 阅读(121) 评论(0) 推荐(0) 编辑
上一页 1 ··· 136 137 138 139 140 141 142 143 144 ··· 273 下一页