上一页 1 ··· 124 125 126 127 128 129 130 131 132 ··· 273 下一页
摘要: 服务器硬件层次架构 MLU服务器层次结构 MLU服务器通过PCIe与主机交换数据。具有多个卡的MLU服务器层次结构系统包括五个级别:服务器级别,卡级别,芯片级别,群集级别和核心级别,如图。 级别0是服务器级别,由几个CPU控制单元,本地DDR存储单元和几个通过PCIe总线互连的MLU卡作为服务器级别 阅读全文
posted @ 2021-05-28 16:49 吴建明wujianming 阅读(797) 评论(0) 推荐(0) 编辑
摘要: FPGA多功能应用处理器 编解码加速卡 概述: 对于H.265/HEVC/VP9编解码处理,FPGA编解码加速卡方案有着完善的功能和preset配置,支持最多的有利于提高画质和降低bitrate的功能,适合各个场景下编解码配置。同时具有灵活部署,易于升级的特点,可根据需求,随时更换成其他协议的编解码 阅读全文
posted @ 2021-05-28 06:12 吴建明wujianming 阅读(318) 评论(0) 推荐(0) 编辑
摘要: AI推理单元 推理服务供了一套面向 MLU(Machine Learning Unit,机器学习单元)设备的类似服务器的推理接口(C++11标准),以及模型加载与管理,推理任务调度等功能,极大地简化了面向MLU平台高性能深度学习应用的开发和部署工作。 概述 推理服务在软件栈中的位置,如下图所示: 推 阅读全文
posted @ 2021-05-28 05:50 吴建明wujianming 阅读(297) 评论(0) 推荐(0) 编辑
摘要: 视频结构化编程模型 概述 简介 CNStream是面向寒武纪开发平台的数据流处理SDK。用户可以根据CNStream提供的接口,开发实现自己的组件。还可以通过组件之间的互连,灵活地实现自己的业务需求。CNStream能够大大简化寒武纪深度学习平台提供的推理和其他处理,如视频解码、神经网络图像前处理的 阅读全文
posted @ 2021-05-27 14:33 吴建明wujianming 阅读(426) 评论(0) 推荐(0) 编辑
摘要: AI算子列表 概述 目前只有部分算子可在一个库中同时运行在MLU220和MLU270平台。也就是用户使用 ./build_cnplugin.sh --mlu270 命令编译生成的 libcnplugin.so 文件可同时在MLU220和MLU270上运行,其余算子只能在MLU270上运行。支持MLU 阅读全文
posted @ 2021-05-27 13:46 吴建明wujianming 阅读(1313) 评论(0) 推荐(0) 编辑
摘要: 虚拟化概述 本文重点介绍了SR-IOV技术以及MLU270对SR-IOV的支持。 SR-IOV简介 SR-IOV(Single Root I/O Virtualization)技术是一种基于硬件的虚拟化解决方案,可提供高性能和可伸缩性的虚拟解决方案。SR-IOV制定了标准化机制来实现多个虚拟机共享一 阅读全文
posted @ 2021-05-27 13:25 吴建明wujianming 阅读(1345) 评论(0) 推荐(0) 编辑
摘要: 芯片流程该要 一、主要工具软件 说到设计工具,就不能不提到三大EDA厂商——cadence,synopsys,mentor。这三家公司的软件涵盖了芯片设计流程的几乎所有所能用到的工具。首先是cadence公司,这家公司最重要的IC设计工具主要有candence IC系列,包含了IC 5141(目前最 阅读全文
posted @ 2021-05-27 06:15 吴建明wujianming 阅读(1086) 评论(0) 推荐(0) 编辑
摘要: AI 芯片的分类及技术 人工智能芯片有两种发展路径:一种是延续传统计算架构,加速硬件计算能力,主要以 3 种类型的芯片为代表,即 GPU、 FPGA、 ASIC,但 CPU依旧发挥着不可替代的作用;另一种是颠覆经典的冯·诺依曼计算架构,采用类脑神经结构来提升计算能力,以 IBM TrueNorth 阅读全文
posted @ 2021-05-27 05:49 吴建明wujianming 阅读(1619) 评论(0) 推荐(0) 编辑
摘要: CUDA上深度学习模型量化的自动化优化 深度学习已成功应用于各种任务。在诸如自动驾驶汽车推理之类的实时场景中,模型的推理速度至关重要。网络量化是加速深度学习模型的有效方法。在量化模型中,数据和模型参数都用诸如int8和float16低精度数据类型表示。降低的数据带宽减少了推理时间和存储器/存储要求, 阅读全文
posted @ 2021-05-26 05:57 吴建明wujianming 阅读(532) 评论(0) 推荐(0) 编辑
摘要: 将TVM集成到PyTorch 随着TVM不断展示出对深度学习执行效率的改进,很明显PyTorch将从直接利用编译器堆栈中受益。PyTorch的主要宗旨是提供无缝且强大的集成,而这不会妨碍用户。PyTorch现在具有基于TVM的官方后端torch_tvm。 用法很简单: import torch_tv 阅读全文
posted @ 2021-05-26 05:33 吴建明wujianming 阅读(224) 评论(0) 推荐(0) 编辑
上一页 1 ··· 124 125 126 127 128 129 130 131 132 ··· 273 下一页