上一页 1 ··· 4 5 6 7 8 9 10 11 12 13 下一页
摘要: 引自:https://blog.csdn.net/u014451076/article/details/79156967 bilinear双线性插值是目前在语义分割中用的比较多的一种方式,比如FCN中就是用的这种方法。这种方法特点是不需要进行学习,运行速度快,操作简单。只需要设置好固定的参数值即可, 阅读全文
posted @ 2020-07-16 18:12 19l92y11p26 阅读(1820) 评论(0) 推荐(0) 编辑
摘要: 引自:https://www.cnblogs.com/Sweepingmonk/p/11584913.html 1. 应用范围 高维数据因为其计算代价昂贵(纬度高计算必然昂贵)和建立索引结构的困难(空间索引结构往往面临着“维度灾”),因此有对其进行数据压缩的需求,即对高维数据进行降维,傅里叶变换和小 阅读全文
posted @ 2020-07-16 16:19 19l92y11p26 阅读(898) 评论(0) 推荐(0) 编辑
摘要: 引自:https://www.cnblogs.com/king-lps/p/8378561.html 5. 批量归一化(BN: Batch Normalization) 5.1 BN训练 1)随机梯度下降法(SGD)对于训练深度网络简单高效,但是它有个毛病,就是需要我们人为的去选择参数,比如学习率、 阅读全文
posted @ 2020-07-13 09:55 19l92y11p26 阅读(1131) 评论(0) 推荐(0) 编辑
摘要: 引自:https://blog.csdn.net/chenyuping333/article/details/82526440 https://www.cnblogs.com/zhhfan/p/10187634.html (1)LeNet:元老级框架,结构简单,却开创了卷积神经网络的新纪元,具有重要 阅读全文
posted @ 2020-07-12 21:04 19l92y11p26 阅读(372) 评论(0) 推荐(0) 编辑
摘要: 引自:https://blog.csdn.net/EngineerHe/article/details/100126694 实现代码: import numpy as np def sigmoid(x): y=1/(1+np.exp(-x)) retunrn y def d_sigmoid(x): 阅读全文
posted @ 2020-07-12 18:22 19l92y11p26 阅读(325) 评论(0) 推荐(0) 编辑
摘要: 计算机视觉任务主要分为:分类、检测、识别、定位四大类。 L1 loss ,L2 loss和smooth L1 loss 引自:https://cloud.tencent.com/developer/article/1441560 https://blog.csdn.net/qq_26598445/a 阅读全文
posted @ 2020-07-12 17:43 19l92y11p26 阅读(681) 评论(0) 推荐(0) 编辑
摘要: 引自:https://blog.csdn.net/zhhp1001/article/details/88257018 测试代码: int main(int argc, char* argv[]) { BinaryTreeNode* A = new BinaryTreeNode(1); BinaryT 阅读全文
posted @ 2020-06-21 20:41 19l92y11p26 阅读(92) 评论(0) 推荐(0) 编辑
摘要: 引自:https://www.cnblogs.com/lhc-yyl-lyx-lyh/p/8439997.html 前序遍历: 前序遍历(DLR),是二叉树遍历的一种,也叫做先根遍历、先序遍历、前序周游,可记做根左右。前序遍历首先访问根结点然后遍历左子树,最后遍历右子树。 前序遍历就是类似dfs的方 阅读全文
posted @ 2020-05-14 17:19 19l92y11p26 阅读(152) 评论(0) 推荐(0) 编辑
摘要: 引自:https://blog.csdn.net/bitcarmanlee/article/details/82320853 1.softmax初探 在机器学习尤其是深度学习中,softmax是个非常常用而且比较重要的函数,尤其在多分类的场景中使用广泛。他把一些输入映射为0-1之间的实数,并且归一化 阅读全文
posted @ 2020-04-05 12:09 19l92y11p26 阅读(256) 评论(0) 推荐(0) 编辑
摘要: 引自:https://blog.csdn.net/bluesliuf/article/details/89389117 一、为什么使用1x1卷积核 1、 1x1卷积的主要目的是为了减少维度,还用于修正线性激活(ReLU)。比如上一层的输出为100x100x128,经过具有256个通道的5x5卷积层之 阅读全文
posted @ 2020-03-29 14:35 19l92y11p26 阅读(292) 评论(0) 推荐(0) 编辑
上一页 1 ··· 4 5 6 7 8 9 10 11 12 13 下一页
/*鼠标跟随效果*/ /* 点击爆炸效果*/
/*鼠标跟随效果*/
Live2D