摘要:
使用Apache TVM将机器学习编译为WASM和WebGPU TLDR 在Apache TVM深度学习编译器中引入了对WASM和WebGPU的支持。实验表明,在将模型部署到Web时,TVM的WebGPU后端可以接近本机 GPU的性能。 概述 计算是现代机器学习应用程序的支柱之一。GPU的引入加快了 阅读全文
摘要:
华为+长安研发芯片?长安蔚来更名“阿维塔科技” 5月20日长安、华为和宁德时代合作造车的重要进展,阿维塔科技公司正式披露。而在整车制造之外,合作方(长安、华为)其实还瞄准了汽车用半导体的设计和开发。 路透社报道,知情人士透露,华为正在扩大与重庆长安汽车的智能汽车合作伙伴关系,包括汽车用半导体的设计和 阅读全文
摘要:
华为托起小康股份、北汽蓝谷、长安汽车股价 2021年5月24日上午,华为一再重申的"华为不造车"言论,再度"重创"相关上市车企。 受此消息影响,北汽蓝谷、长安汽车先后跌停,小康股份跌幅逾6%,而广汽、东风则下滑接近5%,瞬间"蒸发"掉不少市值。 事实上,去年11月在华为内部发布的一则《关于智能汽车部 阅读全文
摘要:
TVM如何训练TinyML 机器学习研究人员和从业人员对“裸机”(低功耗,通常没有操作系统)设备产生了广泛的兴趣。尽管专家已经有可能在某些裸机设备上运行某些模型,但是为各种设备优化模型的挑战非常艰巨,通常需要手动优化设备特定的库。对于那些没有Linux支持的平台,不存在用于部署模型的可扩展解决方案。 阅读全文
摘要:
TVM代码生成codegen 硬件后端提供程序(例如Intel,NVIDIA,ARM等),提供诸如cuBLAS或cuDNN之类的内核库以及许多常用的深度学习内核,或者提供框架例,如带有图形引擎的DNNL或TensorRT,使用户以某种方式描述模型,实现高性能。此外,新兴的深度学习加速器还具有自己的编 阅读全文
摘要:
TVM量化小结手册 文章目录 Offical References TVM quantization roadmap INT8 quantization proposal Quantization Story - 2019-09 Quantization Development Quantizati 阅读全文
摘要:
TVM图优化与算子融合 计算图的定义 Computational graphs: a common way to represent programs in deep learning frameworks 对于图优化来说,有很多种图优化手段: Operator Fusion Constant Pa 阅读全文
摘要:
桥接PyTorch和TVM 人工智能最引人入胜的一些应用是自然语言处理。像BERT或GPT-2之类的模型及其变体,可以获住足够多的文本信息。 这些模型属于称为Transformers的神经网络类体系结构。 HuggingFace transformers library是实现最受欢迎的库之一。 与已 阅读全文
摘要:
cmodel模拟器开发 对于一个公司来说,产品的设计周期就是生命线,一般来说都会在设计功能级仿真的c-model后直接转向RTL设计。 在目前的技术下,做cycle-by-cycle的设计和直接RTL设计的时间,感觉是差不太多的。nVidia同时维护functional and timing 的si 阅读全文
摘要:
MXNet 图优化与算子融合Graph Optimization and Quantization based on subgraph and MKL-DNN Purpose MKL-DNN引入了两个高级特性:融合计算和降精度核。这些特性可以显著地提高各种深度学习拓扑在CPU上的推理性能。 然而,M 阅读全文