随笔分类 - 深度学习
摘要:转自:https://blog.csdn.net/zhuhaodonglei/article/details/100014178?spm=1001.2101.3001.6661.1&utm_medium=distribute.pc_relevant_t0.none-task-blog-2%7Edef
阅读全文
摘要:转自:https://blog.csdn.net/zhuhaodonglei/article/details/100013802 1、起始输入 Data:输入数据第一层 2、激活算子 作用:引入非线性(通常需要区分的区域,直线是无法完全区分的) 1)Relu 公式:ReLU(x)=max(0,x)
阅读全文
摘要:转自:https://www.cnblogs.com/XDU-Lakers/p/10557496.html 学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。肯定很多人刚开始和我一样一头雾水,接下来就让我们详细了解一
阅读全文
摘要:目录 紧凑的模型结构设计 分组卷积 分解卷积 C.ReLU[7]结构 SqueezeNet[8]结构 神经网络搜索[18]低秩近似/分解模型剪枝 (pruning)模型量化 知识蒸馏卷积算法优化 总体压缩效果评价指标有哪些?几种轻量化网络结构对比网络压缩未来研究方向有哪些?目前有哪些深度学习模型优化
阅读全文
摘要:输入数据NCHW [in, ic, ih, iw]: in=batch;ic=input channel ;ih=input height; iw=input width 输出数据 [on,oc,oh,ow]:on=output batch;oc=output channel;oh=output h
阅读全文
摘要:https://aistudio.baidu.com/aistudio/projectdetail/1803126
阅读全文