随笔分类 -  模型压缩部署

摘要:NCNN 模型推理详解及实战本文首先描述了 ncnn 推理框架的依赖库的知识,及相关 cpu 和内存硬件特性描述。最后结合 shufflenet sample 解析了,模型推理的全部流程,详解了 sample 代码的每个细节。 阅读全文
posted @ 2023-03-28 21:10 嵌入式视觉 阅读(2717) 评论(0) 推荐(0) 编辑
摘要:深度学习模型压缩方法概述我们知道,一定程度上,网络越深,参数越多,模型也会越复杂,但其最终效果也越好,而模型压缩算法是旨在将一个庞大而复杂的大模型转化为一个精简的小模型。之所以必须做模型压缩,是因为嵌入式设备的算力和内存有限,经过压缩后的模型方才能部署到嵌入式设备上。工业界的模型压缩方法有:知识蒸馏、轻量化模型架构、剪枝、量化。 阅读全文
posted @ 2023-03-14 23:27 嵌入式视觉 阅读(1305) 评论(0) 推荐(0) 编辑
摘要:基于pytorch实现模型剪枝所谓模型剪枝,其实是一种从神经网络中移除"不必要"权重或偏差(weigths/bias)的模型压缩技术。本文深入描述了 pytorch 框架的几种剪枝 API,包括函数功能和参数定义,并给出示例代码。 阅读全文
posted @ 2023-02-23 23:42 嵌入式视觉 阅读(608) 评论(0) 推荐(0) 编辑
摘要:模型压缩-剪枝算法详解近年来主流的模型压缩方法包括:数值量化(Data Quantization,也叫模型量化),模型稀疏化(Model sparsification,也叫模型剪枝 Model Pruning),知识蒸馏(Knowledge Distillation), 轻量化网络设计(Lightweight Network Design)和 张量分解(Tensor Decomposition)。其中模型剪枝是一种应用非常广的模型压缩方法,其可以直接减少模型中的参数量。本文会对模型剪枝的定义、发展历程、分类以及算法原理进行详细的介绍。 阅读全文
posted @ 2023-02-22 03:01 嵌入式视觉 阅读(3302) 评论(1) 推荐(2) 编辑
摘要:TensorRT 基础笔记TensorRT 是 NVIDIA 官方推出的基于 CUDA 和 cudnn 的高性能深度学习推理加速引擎,能够使深度学习模型在 GPU 上进行低延迟、高吞吐量的部署。采用 C++ 开发,并提供了 C++ 和 Python 的 API 接口,支持 TensorFlow、Pytorch、Caffe、Mxnet 等深度学习框架,其中 Mxnet、Pytorch 的支持需要先转换为中间模型 ONNX 格式。截止到 2021.4.21 日, TensorRT 最新版本为 v7.2.3.4。 阅读全文
posted @ 2023-01-10 14:06 嵌入式视觉 阅读(649) 评论(0) 推荐(0) 编辑
摘要:ONNX模型分析与使用ONNX 的本质只是一套开放的 ML 模型标准,模型文件存储的只是网络的拓扑结构和权重(其实每个深度学习框架最后保存的模型都是类似的),脱离开框架是没办法对模型直接进行 inference的。 阅读全文
posted @ 2023-01-09 14:19 嵌入式视觉 阅读(2079) 评论(0) 推荐(0) 编辑
摘要:神经网络量化基础模型量化是指将神经网络的浮点算法转换为定点。量化有一些相似的术语,低精度(Low precision)可能是常见的。 低精度模型表示模型权重数值格式为 FP16(半精度浮点)或者 INT8(8位的定点整数),但是目前低精度往往就指代 INT8。 常规精度模型则一般表示模型权重数值格式为 FP32(32位浮点,单精度)。 混合精度(Mixed precision)则在模型中同时使用 FP32 和 FP16 的权重数值格式。 FP16 减少了一半的内存大小。 阅读全文
posted @ 2022-12-03 22:39 嵌入式视觉 阅读(1601) 评论(0) 推荐(1) 编辑
摘要:神经网络模型复杂度分析终端设备上运行深度学习算法需要考虑内存和算力的需求,因此需要进行模型复杂度分析,涉及到模型计算量(时间/计算复杂度)和模型参数量(空间复杂度)分析。 为了分析模型计算复杂度,一个广泛采用的度量方式是模型推断时浮点运算的次数 (FLOPs),即模型理论计算量,但是,它是一个间接的度量,是对我们真正关心的直接度量比如速度或者时延的一种近似估计。 阅读全文
posted @ 2022-11-28 15:28 嵌入式视觉 阅读(2143) 评论(0) 推荐(0) 编辑
摘要:模型压缩部署概述深度学习和计算机视觉方向除了算法训练/研究,还有两个重要的方向: 模型压缩(模型优化、量化)、模型部署(模型转换、后端功能SDK开发)。所谓模型部署,即将算法研究员训练出的模型部署到具体的端边云芯片平台上,并完成特定业务的视频结构化应用开发。 阅读全文
posted @ 2022-10-14 18:36 嵌入式视觉 阅读(345) 评论(0) 推荐(0) 编辑
摘要:卷积神经网络压缩方法总结我们知道,在一定程度上,网络越深,参数越多,模型越复杂,其最终效果越好。神经网络的压缩算法是,旨在将一个庞大而复杂的预训练模型(pre-trained model)转化为一个精简的小模型。 按照压缩过程对网络结构的破坏程度,我们将模型压缩技术分为“前端压缩”和“后端压缩”两部分。 阅读全文
posted @ 2022-10-14 18:32 嵌入式视觉 阅读(106) 评论(0) 推荐(1) 编辑

点击右上角即可分享
微信分享提示