随笔分类 -  计算机视觉

摘要:它本质上就是在我们常规的自编码器的基础上,对encoder的结果(在VAE中对应着计算均值的网络)加上了“高斯噪声”,使得结果decoder能够对噪声有鲁棒性;而那个额外的KL loss(目的是让均值为0,方差为1),事实上就是相当于对encoder的一个正则项,希望encoder出来的东西均有零均 阅读全文
posted @ 2020-10-20 20:18 Tomorrow1126 阅读(171) 评论(0) 推荐(0) 编辑
摘要:1、RNN递归神经网络(RNN)是两种人工神经网络的总称。一种是时间递归神经网络(recurrent neural network), 另一种是结构递归神经网络(recursive neural network)。时间递归神经网络的神经元间连接构成矩阵,而结构递归神经网络利用相似的神经网络结构 递归 阅读全文
posted @ 2020-10-20 20:08 Tomorrow1126 阅读(130) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/qq_20412595/article/details/83658394 所谓编码,就是将输入序列转化成一个固定长度的向量;解码,就是将之前生成的固定向量再转化成输出序列。 阅读全文
posted @ 2020-07-26 14:25 Tomorrow1126 阅读(168) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/weixin_44388679/article/details/107458536 https://blog.csdn.net/u014432647/article/details/75276718 阅读全文
posted @ 2020-07-25 21:03 Tomorrow1126 阅读(983) 评论(0) 推荐(0) 编辑
摘要:https://blog.csdn.net/choushi5845/article/details/100747118 https://blog.csdn.net/LEE18254290736/article/details/97371930 1、生成式对抗网络(GAN, Generative Ad 阅读全文
posted @ 2020-07-25 12:32 Tomorrow1126 阅读(251) 评论(0) 推荐(0) 编辑
摘要:笔记在pad中 接下来,我们就将问题慢慢复杂化,一步一步接近最终的神经网络中的反向传播! 前文中,我们利用的是一个神经元,这里我们讲问题变复杂,变成两个神经元,并且是有嵌套关系的两个神经元!如下图: 将输入值相加然后输出到第二个神经元,同时第二个神经元还接受输入c,并将两个值相乘,最后输出!这个简单 阅读全文
posted @ 2020-07-21 11:44 Tomorrow1126 阅读(224) 评论(0) 推荐(0) 编辑
摘要:详细看博客https://www.jianshu.com/p/fa8d5ff9321a 1、感知器perceptron 感知器本质上是用来决策的。 一个感知机其实是对神经元最基本概念的模拟 ,都未必有多少网络概念,他就是一个自动做决策的机器。 感知器纯粹从数学的角度的上看,其实就可以理解为一个黑盒函 阅读全文
posted @ 2020-07-21 11:28 Tomorrow1126 阅读(972) 评论(0) 推荐(0) 编辑
摘要:梯度:梯度的本意是一个向量(矢量),表示某一函数在该点处的方向导数沿着该方向取得最大值, 即函数在该点处沿着该方向(此梯度的方向)变化最快,变化率最大(为该梯度的模)。 百度百科详细含义:https://baike.baidu.com/item/%E6%A2%AF%E5%BA%A6/13014729 阅读全文
posted @ 2020-07-21 10:34 Tomorrow1126 阅读(2201) 评论(0) 推荐(0) 编辑
摘要:from keras.datasets import mnist from keras import models from keras import layers from keras.utils import to_categorical import numpy as np def loadD 阅读全文
posted @ 2020-03-25 16:19 Tomorrow1126 阅读(175) 评论(0) 推荐(0) 编辑
摘要:Softmax是用于分类过程,用来实现多分类的 它把一些输出的神经元映射到(0-1)之间的实数,并且归一化保证和为1,从而使得多分类的概率之和也刚好为1。 Softmax可以分为soft和max,max也就是最大值,假设有两个变量a,b。如果a>b,则max为a,反之为b。那么在分类问题里面,如果只 阅读全文
posted @ 2020-02-24 16:31 Tomorrow1126 阅读(295) 评论(0) 推荐(0) 编辑
摘要:1、感知野: 在卷积神经网络中,感受野(Receptive Field)的定义是卷积神经网络每一层输出的特征图(feature map) 上的像素点在输入图片上映射的区域大小。再通俗点的解释是,特征图上的一个点对应输入图上的区域,如图1所示。 感受野(Receptive Field),指的是神经网络 阅读全文
posted @ 2020-02-24 11:20 Tomorrow1126 阅读(577) 评论(0) 推荐(0) 编辑
摘要:1、NN 神经网络 2、CNN卷积神经网络 CNN网络一共有5个层级结构: 输入层 卷积层 激活层 池化层 全连接FC层 一、输入层 与传统神经网络/机器学习一样,模型需要输入的进行预处理操作, 常见的输入层中预处理方式有: 去均值 归一化 PCA/SVD降维等 1、去均值:各维度都减对应维度的均值 阅读全文
posted @ 2020-02-13 17:50 Tomorrow1126 阅读(185) 评论(0) 推荐(0) 编辑
摘要:拟合:形象的说,拟和就是把平面上一系列的点,用一条光滑的曲线连接起来.因为这条曲线有无数种可能, 从而有各种拟和方法.拟和的曲线一般可以用函数表示.根据这个函数的不同有不同的拟和的名字. 如果待定函数是线性,就叫线性拟合或者线性回归(主要在统计中),否则叫作非线性拟合或者非线性回归。表达式也可以是分 阅读全文
posted @ 2020-02-13 15:02 Tomorrow1126 阅读(1511) 评论(0) 推荐(0) 编辑
摘要:1、正则化缓解过拟合 正则化在损失函数中引入模型复杂度指标,利用给w加权值,弱化了训练数据的噪声 一般不会正则化b。 2、matplotlib.pyplot 3、搭建模块化的神经网络八股: 前向传播就是搭建网络,设计网络结构(forward.py) def forward(x,regularizer 阅读全文
posted @ 2020-02-12 20:03 Tomorrow1126 阅读(288) 评论(0) 推荐(0) 编辑
摘要:1、监督学习(supervised learning)又叫做回归问题 2、其实分类和回归的本质是一样的,都是对输入做出预测,其区别在于输出的类型。 分类问题:分类问题的输出是离散型变量(如: +1、-1),是一种定性输出。(预测明天天气是阴、晴还是雨)回归问题:回归问题的输出是连续型变量,是一种定量 阅读全文
posted @ 2020-02-12 18:00 Tomorrow1126 阅读(300) 评论(0) 推荐(0) 编辑
摘要:1、 tf.multiply(x,y1) # 对应元素相乘 tf.matmul(x,y2) # 矩阵相乘 2、会话:执行计算图中的节点运算的。 with tf.Session() as sess: print sess.run(y) 3、参数:就是权重w,用变量表示。随机给初值。 w=tf.Vari 阅读全文
posted @ 2020-02-10 17:43 Tomorrow1126 阅读(173) 评论(0) 推荐(0) 编辑
摘要:1、激活函数 (1)由于sgmoid函数自身的特性,在反向传播时,很容易出现梯度消失的情况,从而难以完成网络的训练。 (2)ReLU的表达式: 2、过拟合问题 欠拟合:根本原因是特征维度过少,模型过于简单,导致拟合的函数无法满足训练集,误差较大; 解决方法:增加特征维度,增加训练数据; 过拟合:根本 阅读全文
posted @ 2020-02-10 15:34 Tomorrow1126 阅读(142) 评论(0) 推荐(0) 编辑
摘要:1、Keras是一个由Python编写的开源人工神经网络库。 2、深度学习主要应用在三个大的方向,计算机视觉,自然语言处理,强化学习 3、计算机视觉主要有:图片识别,目标检测,语义分割,视频理解(行为检测), 图片生成,艺术风格迁移等等。 4、自然语言处理:机器翻译、聊天机器人 5、强化学习:虚拟游 阅读全文
posted @ 2020-02-08 13:20 Tomorrow1126 阅读(145) 评论(0) 推荐(0) 编辑
摘要:1、原理: 任何一副灰度图像都可以被看成拓扑平面,灰度值高的区域可以被看成是 山峰,灰度值低的区域可以被看成是山谷。我们向每一个山谷中灌不同颜色的 水。随着水的位的升高,不同山谷的水就会相遇汇合,为了防止不同山谷的水 汇合,我们需要在水汇合的地方构建起堤坝。不停的灌水,不停的构建堤坝知 道所有的山峰 阅读全文
posted @ 2020-02-07 14:44 Tomorrow1126 阅读(638) 评论(0) 推荐(0) 编辑
摘要:1、霍夫变换 2、cv2.HoughLines() 返回值就是(ρ, θ)。ρ 的单位是像素,θ 的单位是弧度。这个函数的第一个参 数是一个二值化图像,所以在进行霍夫变换之前要首先进行二值化,或者进行 Canny 边缘检测。第二和第三个值分别代表 ρ 和 θ 的精确度。第四个参数是 阈值,只有累加其 阅读全文
posted @ 2020-02-07 14:40 Tomorrow1126 阅读(231) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示