随笔分类 -  深度学习

深度学习的一些零碎知识点
摘要:mtcnn: Multitask 数据集: Wider Face数据集:http://shuoyang1213.me/WIDERFACE/ CelebA数据集: http://mmlab.ie.cuhk.edu.hk/projects/CelebA.html Pnet: pnet网络: import 阅读全文
posted @ 2024-09-21 14:32 silence_cho 阅读(21) 评论(0) 推荐(0) 编辑
摘要:1-2 图片数据建模流程范例 tensorflow中准备图片数据的常用方案有两种,第一种是使用tf.keras中的ImageDataGenerator工具构建图片数据生成器。 第二种是使用tf.data.Dataset搭配tf.image中的一些图片处理方法构建数据管道。 第一种方法更为简单,其使用 阅读全文
posted @ 2024-09-21 14:31 silence_cho 阅读(19) 评论(0) 推荐(0) 编辑
摘要:https://chenrudan.github.io/blog/2015/08/04/dl5tricks.html https://zhuanlan.zhihu.com/p/32338983 优化算法的常用tricks 最后,分享一些在优化算法的选择和使用方面的一些tricks。 首先,各大算法孰 阅读全文
posted @ 2024-09-21 13:18 silence_cho 阅读(15) 评论(0) 推荐(0) 编辑
摘要:sudo apt install -y xorg sudo nvidia-xconfig --enable-all-gpus --allow-empty-initial-configuration --cool-bits=7 vi ~/gpufansetting 编辑脚本gpufansetting, 阅读全文
posted @ 2024-09-21 13:17 silence_cho 阅读(52) 评论(0) 推荐(0) 编辑
摘要:看gluoncv网络的笔记 from gluoncv.model_zoo import get_model import mxnet as mx from mxnet import autograd # net = get_model('center_net_resnet50_v1b_coco',p 阅读全文
posted @ 2024-09-21 13:16 silence_cho 阅读(2) 评论(0) 推荐(0) 编辑
摘要:固定部分权重,不更新 比如说只更新最后一个dense层的权重:Trainer里面用下面这个而不是所有的model.collect_params() model.collect_params(select='.*dense0') 如果想设置为只有dense0层不更新 model.collect_par 阅读全文
posted @ 2024-09-21 13:15 silence_cho 阅读(5) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/256458915 P100, 5M图片,crnn识别一个epoch训练时间15h,第一次best_model出现在6epoch,第二次14epoch。batch_size=128, 占显存6g多。 SynText文本生成器。 seq2seq 阅读全文
posted @ 2024-09-21 13:14 silence_cho 阅读(40) 评论(0) 推荐(0) 编辑
摘要:mxnet报错: 参考下面博客,执行命令重新加载nvidia内核 https://blog.csdn.net/maizousidemao/article/details/108234321 sudo rmmod nvidia_uvm sudo modprobe nvidia_uvm 报错信息,nvi 阅读全文
posted @ 2024-09-21 13:12 silence_cho 阅读(14) 评论(0) 推荐(0) 编辑
摘要:yolo5的训练trick https://zhuanlan.zhihu.com/p/197776260 ema 权重系数随着迭代次数的变化趋势如下,当迭代次数增加时,权重系数越来越大,则后续模型的参数对整体ema模型的参数影响越来越小 import numpy as np import matpl 阅读全文
posted @ 2024-09-21 13:08 silence_cho 阅读(7) 评论(0) 推荐(0) 编辑
摘要:LUT即look-up table, 进行查表转换,LUT函数对输入图像,根据提供的转换表,将像素值进行转换,其参数含义如下: dst = cv2.LUT(src, lut, dst=None) src:输入数据array,类型为8位整型(np.uin8) lut:查找表,如果输入src是多通道的, 阅读全文
posted @ 2024-09-21 13:08 silence_cho 阅读(204) 评论(0) 推荐(0) 编辑
摘要:win10同时装了mxnet和pytorch, mxnet版本为1.5.0+cu101, torch版本为1.7.1+cu101, 出现了下面奇怪的错误: OSError: [WinError 127] 找不到指定的程序。 Error loading "D:\Anaconda3\lib\site-p 阅读全文
posted @ 2024-09-21 13:07 silence_cho 阅读(122) 评论(0) 推荐(0) 编辑
摘要:无监督目标定位 SCDA:selective convolution descriptor aggregation https://www.jianshu.com/p/69bebb635b3d?utm_campaign=maleskine&utm_content=note&utm_medium=se 阅读全文
posted @ 2024-09-21 13:06 silence_cho 阅读(58) 评论(0) 推荐(0) 编辑
摘要:https://www.zhihu.com/question/58200555 阅读全文
posted @ 2024-09-21 13:05 silence_cho 阅读(5) 评论(0) 推荐(0) 编辑
摘要:引言 空洞卷积(Dilated/Atrous Convolution),广泛应用于语义分割与目标检测等任务中,语义分割中经典的deeplab系列与DUC对空洞卷积进行了深入的思考。目标检测中SSD与RFBNet,同样使用了空洞卷积 空洞卷积:在3*3卷积核中间填充0,有两种实现方式,第一,卷积核填充 阅读全文
posted @ 2024-09-21 13:05 silence_cho 阅读(114) 评论(0) 推荐(0) 编辑
摘要:继续整理tensorrt的学习资料,方便后续查看. (文章内容大部分摘取于网络资源) ## 1 int8量化 int8量化就是将网络的权重由float32类型缩放为int8类型,同时记录缩放的scale。为了尽可能的不丢失精度,需要采用标定图片来确定缩放的范围。 ### 1.1 int8量化原理 * 阅读全文
posted @ 2023-09-02 16:38 silence_cho 阅读(372) 评论(0) 推荐(0) 编辑
摘要:继续整理tensorrt的学习资料,方便后续查看. (文章内容大部分摘取于网络资源) ## 1. tensorrt插件 对于tensorrt不支持的算子,可以通过plugin插件的方式,自己实现。这里采用在pytorch中自定义一个算子,导出到onnx中,然后实现一个tensorrt plugin来 阅读全文
posted @ 2023-09-02 16:32 silence_cho 阅读(761) 评论(0) 推荐(1) 编辑
摘要:整理下tensorrt学习资料,方便后续查找。(文章内容大部分摘取于网络资源) # 1. tensorrt介绍 安装: https://docs.nvidia.com/deeplearning/sdk/tensorrt-install-guide/index.html tensorrt python 阅读全文
posted @ 2023-09-02 16:26 silence_cho 阅读(1845) 评论(0) 推荐(0) 编辑
摘要:有点时间了,整理下部分学习资料,方便后续查找,先从onnx开始吧。(文章内容大部分摘取于网络资源) ### 1 onnx介绍 **ONNX的本质,是一种Protobuf格式文件。**onnx是基于protobuf来做数据存储和传输,*.proto后缀文件, 其定义是protobuf语法,类似json 阅读全文
posted @ 2023-09-02 16:14 silence_cho 阅读(888) 评论(0) 推荐(0) 编辑
摘要:1. 训练 1.1 数据预处理: 得到视频每一帧的图片和对应xml标注文件(和目标检测类似,每个目标的box和name),将图片中的每个目标切割出来,存储为子图。截取过程如下: 以目标中心点为中心,长和宽分别为s_x,截取图片并缩放到(instance_size, instance_size); i 阅读全文
posted @ 2021-12-14 13:58 silence_cho 阅读(58) 评论(0) 推荐(0) 编辑
摘要:BatchNorm 1. BN的作用 工作原理: BN 有效地加速了模型训练,加大 learning rate,让模型不再过度依赖初始化。它在训练时在网络内部进行归一化(normalization), 为训练提供了有效的 regularization,抑制过拟合,用原作者的话是防止了协方差偏移。这里 阅读全文
posted @ 2021-12-08 14:55 silence_cho 阅读(85) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示