爽歪歪666
不以物喜,不以己悲,努力才是永恒的主题。
上一页 1 ··· 9 10 11 12 13 14 15 下一页
摘要: 神经网络 一些神经元的输出会变成另外一些神经元的输入,一般以层来组织,最常见的是全连接神经网络,其中两个相邻层中每一个层的所有神经元与另一个层的所有神经元相连,每个层内部的神经元不相连。 一般的,N层神经网络并不会把输入层算进去,因此一个一层的神经网络是指没有隐藏层,只有输入层和输出层的神经网络。L 阅读全文
posted @ 2019-10-22 17:16 爽歪歪666 阅读(126) 评论(0) 推荐(0) 编辑
摘要: 读取文件中的内容: 阅读全文
posted @ 2019-10-21 13:20 爽歪歪666 阅读(199) 评论(0) 推荐(0) 编辑
摘要: logistic回归 博客链接:https://www.cnblogs.com/home123/p/7356523.html note:p(y = 1|x) = 1-p(y=0|x) 在logistic回归的模型中,输出Y=1 的对数几率是输入x的线性函数。另外,线性函数的值越接近正无穷,概率值就越 阅读全文
posted @ 2019-10-21 12:18 爽歪歪666 阅读(321) 评论(0) 推荐(0) 编辑
摘要: 1 """ 2 torch.float64对应torch.DoubleTensor 3 torch.float32对应torch.FloatTensor 4 将真实函数的数据点能够拟合成一个多项式 5 eg:y = 0.9 +0.5×x + 3×x*x + 2.4 ×x*x*x 6 """ 7 import torch 8 9 from torch import nn 10 ... 阅读全文
posted @ 2019-10-21 09:35 爽歪歪666 阅读(202) 评论(0) 推荐(0) 编辑
摘要: pytorch基础 pytorch官方文档:https://pytorch.org/docs/master/nn.html#linear-layers import torchfrom torch import nn 1 tensor:张量,表示一个多维的矩阵。 b.numpy()能将b转换为num 阅读全文
posted @ 2019-10-20 18:09 爽歪歪666 阅读(258) 评论(0) 推荐(0) 编辑
摘要: 1,提取特征脸: YaleB:(AR同) img:192*168 随机矩阵: randmatrix = rand(504,192*168) l2norm = sqrt(sum(randmatrix.*randmtrix,2)+eps) %每一行相加:504*1 randmatrix = randma 阅读全文
posted @ 2019-10-18 10:31 爽歪歪666 阅读(470) 评论(0) 推荐(0) 编辑
摘要: Learning A Discriminative Dictionary for Sparse Coding via Label Consistent K-SVD 1,同步学习判决字典和线性分类器 2,有监督,将标签信息和字典项相关联 3,标签一致项,重构误差和分类误差结合,形成统一的目标函数 4, 阅读全文
posted @ 2019-10-15 20:28 爽歪歪666 阅读(2503) 评论(4) 推荐(2) 编辑
摘要: PCA的概念: 主要思想是将n维特征映射到k维上,这k维是全新的正交特征,这k维特征被称为主成分,在原数据的基础上重新构造出来k维。就是从原始的空间顺序的找出一组相互正交的坐标轴,新坐标轴的选择和数据本身有很大的关系。其中,第一个坐标轴是从原数据中方差最大的方向,第二个新坐标轴选择是与第一个坐标轴正 阅读全文
posted @ 2019-10-14 11:53 爽歪歪666 阅读(290) 评论(0) 推荐(0) 编辑
摘要: https://blog.csdn.net/awyyauqpmy/article/category/9279830 z https://blog.csdn.net/diyan1925/article/details/101485200 阅读全文
posted @ 2019-09-28 09:26 爽歪歪666 阅读(98) 评论(0) 推荐(0) 编辑
摘要: 1.在子函数设置的断点,在运行时,不起作用: 因为在主函数开始时,使用了clear all,在运行时,会把断点给删除。 阅读全文
posted @ 2019-09-22 17:13 爽歪歪666 阅读(195) 评论(0) 推荐(0) 编辑
上一页 1 ··· 9 10 11 12 13 14 15 下一页