摘要:
循环神经网络(Recurrent Neural Network, RNN)与递归神经网络(Recursive Neural Network, RNN)在简写上是一样的,本次笔记只针对循环神经网络,在此之前先说一下,针对这两个神经网络,有些博客只是从名字上将其分开来了,具体的也没详细介绍,经过大量的中 阅读全文
摘要:
本次笔记是关于tensorflow1的代码,由于接触不久没有跟上2.0版本,这个代码是通过简单的神经网络做一个非线性回归任务,(如果用GPU版本的话第一次出错就重启) import tensorflow as tf import numpy as np import matplotlib.pyplo 阅读全文
摘要:
一、TensorFlow使用简单,部署快捷 TensorFlow使用数据流图(计算图)来规划计算流程,可以将计算映射到不同的硬件和操作平台。凭借着统一的架构,TensorFlow可以方便的部署到各种平台,大大简化了真实场景中应用机器学习算法的难度。 使用TensorFlow,我们不需要给大规模的模型 阅读全文
摘要:
目标探测介绍: 直接思路:回归问题 利用神经网络进行目标识别,同样的目标变为坐标值 直接思路:局部识别问题 在很多位置尝试识别,能够完成识别的地方就是目标位置 问题:怎样找到这些候选位置? 不同scale的sliding windows? 遍历所有位置 候选区域产生 更有效的方法是什么? 直接计算候 阅读全文
摘要:
目标分类基本框架 1. 数据准备 数据来源--现有数据集的子集;网络采集;现有数据人工标注http://deeplearning.net/datasets/ 数据扩充--https://blog.csdn.net/zhelong3205/article/details/81810743 作用 增加训 阅读全文
摘要:
CNN的开山之作是LeCun提出的LeNet-5,而其真正的爆发阶段是2012年AlexNet取得ImageNet比赛的分类任务的冠军,并且分类准确率远远超过利用传统方法实现的分类结果,AlexNet之后,深度学习便一发不可收拾,分类准确率每年都被刷榜,下图展示了模型的变化情况,随着模型的变深,To 阅读全文
摘要:
卷积神经网络组成: input--CONV--ReLU--pooling--FC 输入层--卷积层--激活函数--池化层--全连接层 在这里需要指出的是:--卷积层--激活函数--池化层--全连接层,它的组合不唯一,也可以看一下关于卷积神经网络的概括: 由于它们的组合可以作出相应的改变,所以使得卷积 阅读全文
摘要:
神经网络-前向传播 为方便起见只画了一个隐藏层的神经网络,图中的x1,x2也可以是向量,数据从输入层传入,在第一个隐藏层需要经过非线性的激活函数f(z)然后得到a1(2),a2(2),在经过激活函数f(z)得到hw,b(x),具体表示式如下: 当然还可以用矩阵-向量表示,使表达式看起来更简洁 注意: 阅读全文
摘要:
传统机器学习与深度学习 尽管深度学习在学习能力上优于传统的机器学习,但是深度学习中仍有机器学习的影子,深度学习的理论是离不开传统的机器学习的。比如线性模型,卷积核,ReLU激活函数,softmax等,这些都应用在深度学习中的神经网络中。下面简单介绍一下传统机器学习与深度学习的对比。 传统机器学习建立 阅读全文
摘要:
用链表搭建的栈与队列相对简单,队列的特点是先进先出,不啰嗦了,由于代码比较简单,相信光顾的人不会太多,下面直接贴代码。 头文件 1 #ifndef QUEUELI_H 2 #define QUEUELI_H 3 4 template<class T> 5 class Queue 6 { 7 publ 阅读全文