爽歪歪666
不以物喜,不以己悲,努力才是永恒的主题。
随笔 - 149,  文章 - 0,  评论 - 6,  阅读 - 13万
10 2019 档案
pytorch-04-激活函数
摘要:sigmoid函数:越大的负数越接近0,越大的正数越接近1缺点:(1)造成梯度消失:该函数在靠近1和0的两端,梯度几乎变成0,梯度下降法:梯度乘上学习率来更新参数,如果梯度接近0,那么没有任何信息来更新参数,会造成模型不收敛另外,使用sigmoid函数,在初始化权重时,权重太大,经过激活函数会导致大 阅读全文
posted @ 2019-10-28 20:23 爽歪歪666 阅读(288) 评论(0) 推荐(0) 编辑
torch_07_卷积神经网络案例分析
摘要:1. LeNet(1998) 2.AlexNet(2012):层数更深,同时第一次引入了激活层ReLU,在全连接层引入了Dropout层防止过拟合 3.VGGNet(2014):有16~19层网络,使用了3*3的卷积滤波器和2*2的池化层。只是对网络层进行不断的堆叠,并没有太大的创新,增加深度缺失可 阅读全文
posted @ 2019-10-28 20:22 爽歪歪666 阅读(370) 评论(0) 推荐(0) 编辑
torch_06_卷积神经网络
摘要:1.概述 卷积神经网络的参数,由一些可学习的滤波器集合构成的,每个滤波器在空间上都计较小,但是深度和输入数据的深度保持一致。在前向传播中,让每个滤波器都在输入数据的宽度和高度上滑动(卷积),然后计算整个滤波器和输入数据任意一处的内积。当滤波器沿着输入数据的宽度和高度滑动时,会生成一个二维的激活图,激 阅读全文
posted @ 2019-10-23 16:44 爽歪歪666 阅读(327) 评论(0) 推荐(0) 编辑
pytorch_05_神经网络
摘要:神经网络 一些神经元的输出会变成另外一些神经元的输入,一般以层来组织,最常见的是全连接神经网络,其中两个相邻层中每一个层的所有神经元与另一个层的所有神经元相连,每个层内部的神经元不相连。 一般的,N层神经网络并不会把输入层算进去,因此一个一层的神经网络是指没有隐藏层,只有输入层和输出层的神经网络。L 阅读全文
posted @ 2019-10-22 17:16 爽歪歪666 阅读(128) 评论(0) 推荐(0) 编辑
Python-读取文件内容
摘要:读取文件中的内容: 阅读全文
posted @ 2019-10-21 13:20 爽歪歪666 阅读(199) 评论(0) 推荐(0) 编辑
torch_03_二分类
摘要:logistic回归 博客链接:https://www.cnblogs.com/home123/p/7356523.html note:p(y = 1|x) = 1-p(y=0|x) 在logistic回归的模型中,输出Y=1 的对数几率是输入x的线性函数。另外,线性函数的值越接近正无穷,概率值就越 阅读全文
posted @ 2019-10-21 12:18 爽歪歪666 阅读(324) 评论(0) 推荐(0) 编辑
torch_02_多项式回归
摘要:1 """ 2 torch.float64对应torch.DoubleTensor 3 torch.float32对应torch.FloatTensor 4 将真实函数的数据点能够拟合成一个多项式 5 eg:y = 0.9 +0.5×x + 3×x*x + 2.4 ×x*x*x 6 """ 7 import torch 8 9 from torch import nn 10 ... 阅读全文
posted @ 2019-10-21 09:35 爽歪歪666 阅读(207) 评论(0) 推荐(0) 编辑
pytorch_01_基础_一维线性回归
摘要:pytorch基础 pytorch官方文档:https://pytorch.org/docs/master/nn.html#linear-layers import torchfrom torch import nn 1 tensor:张量,表示一个多维的矩阵。 b.numpy()能将b转换为num 阅读全文
posted @ 2019-10-20 18:09 爽歪歪666 阅读(259) 评论(0) 推荐(0) 编辑
LC-KSVD 代码解读
摘要:1,提取特征脸: YaleB:(AR同) img:192*168 随机矩阵: randmatrix = rand(504,192*168) l2norm = sqrt(sum(randmatrix.*randmtrix,2)+eps) %每一行相加:504*1 randmatrix = randma 阅读全文
posted @ 2019-10-18 10:31 爽歪歪666 阅读(484) 评论(0) 推荐(0) 编辑
标签一致项(LC-KSVD)-全文解读
摘要:Learning A Discriminative Dictionary for Sparse Coding via Label Consistent K-SVD 1,同步学习判决字典和线性分类器 2,有监督,将标签信息和字典项相关联 3,标签一致项,重构误差和分类误差结合,形成统一的目标函数 4, 阅读全文
posted @ 2019-10-15 20:28 爽歪歪666 阅读(2591) 评论(4) 推荐(2) 编辑
PCA:主成分分析
摘要:PCA的概念: 主要思想是将n维特征映射到k维上,这k维是全新的正交特征,这k维特征被称为主成分,在原数据的基础上重新构造出来k维。就是从原始的空间顺序的找出一组相互正交的坐标轴,新坐标轴的选择和数据本身有很大的关系。其中,第一个坐标轴是从原数据中方差最大的方向,第二个新坐标轴选择是与第一个坐标轴正 阅读全文
posted @ 2019-10-14 11:53 爽歪歪666 阅读(307) 评论(0) 推荐(0) 编辑


< 2025年1月 >
29 30 31 1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31 1
2 3 4 5 6 7 8
点击右上角即可分享
微信分享提示