随笔 - 480  文章 - 0 评论 - 45 阅读 - 73万
< 2025年3月 >
23 24 25 26 27 28 1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30 31 1 2 3 4 5

09 2018 档案
跟我学算法-吴恩达老师(正交化, 单实数评估指标, 满足指标, (训练集,开发集, 测试集的分布), 改变指标, 人类的表现 )
摘要:1.正交化 指使用单个手段来控制一个指标,如样本的偏差过大时,即欠拟合,就采用增加模型复杂程度,来降低样本偏差 2.单实数评估指标单实数评估样本也是我们平时常说的优化指标 accruacy = (tp + tn)/ (tp+fp+tn+fn) precesion = (tp) / (tp+fp) r 阅读全文
posted @ 2018-09-30 22:03 python我的最爱 阅读(177) 评论(0) 推荐(0) 编辑
跟我学算法-吴恩达老师(超参数调试, batch归一化, softmax使用,tensorflow框架举例)
摘要:1. 在我们学习中,调试超参数是非常重要的。 超参数的调试可以是a学习率,(β1和β2,ε)在Adam梯度下降中使用, layers层数, hidden units 隐藏层的数目, learning_rate_dacay 学习率衰减, mini-batch size 每次迭代的样本数目 当需要调节的 阅读全文
posted @ 2018-09-28 20:21 python我的最爱 阅读(380) 评论(0) 推荐(0) 编辑
跟我学算法-opencv加载,修改,保存
摘要:#include #include #include using namespace cv; int main(int argc, char** argv) { Mat src = imread("C:/Users/Administrator/Desktop/1.png", IMREAD_ANYCOLOR); if (src.empty()) { printf... 阅读全文
posted @ 2018-09-26 09:23 python我的最爱 阅读(333) 评论(0) 推荐(0) 编辑
跟我学算法-吴恩达老师(mini-batchsize,指数加权平均,Momentum 梯度下降法,RMS prop, Adam 优化算法, Learning rate decay)
摘要:1.mini-batch size 表示每次都只筛选一部分作为训练的样本,进行训练,遍历一次样本的次数为(样本数/单次样本数目) 当mini-batch size 的数量通常介于1,m 之间 当为1时,称为随机梯度下降 一般我们选择64,128, 256等样本数目 2. 指数加权平均 v0 = 0 阅读全文
posted @ 2018-09-25 16:25 python我的最爱 阅读(857) 评论(0) 推荐(0) 编辑
跟我学算法-吴恩达老师(偏差方差,正则化,正则化输入,梯度消失和爆炸,梯度检测)
摘要:1.训练样本的分布 交叉验证指的是训练集和验证集,为了防止在训练过程中受到部分训练样本的影响 一般当样本数目较少时,采用60/20/20的比例,60%的训练集,20%的验证集,20%的测试集当样本数目较大时,一般可以采用2.5%的验证集和1%的测试集,其他都是训练样本。 很多情况下,我们会不适用测试 阅读全文
posted @ 2018-09-25 13:59 python我的最爱 阅读(541) 评论(0) 推荐(0) 编辑
跟我学算法-吴恩达老师的浅层神经网络
摘要:浅层神经网络,这里使用的是一个输入层,一个隐层(4个神经元), 一个输出层 使用sigmoid函数做激活函数,在进行反向传播的梯度下降中,由于导数过小,速度下降会变得很慢,使用非线性激活函数,是为了使得中间层神经元连接是存在意义的. 一般我们在初始化w时,采用随机值做初始化,为了使得不同样本输入,在 阅读全文
posted @ 2018-09-20 21:29 python我的最爱 阅读(364) 评论(0) 推荐(0) 编辑
跟我学算法-吴恩达老师的logsitic回归
摘要:logistics回归是一种二分类问题,采用的激活函数是sigmoid函数,使得输出值转换为(0,1)之间的概率 A = sigmoid(np.dot(w.T, X) + b ) 表示预测函数 dz = A - Y , A 表示的是预测结果, y 表示的是实际结果 cost = -y*logA - 阅读全文
posted @ 2018-09-18 23:36 python我的最爱 阅读(470) 评论(0) 推荐(0) 编辑
跟我学算法-对抗生成网络
摘要:对抗生成网络,通过对分别两个矛盾的函数,进行各自的训练,已达到两个函数都能实现各自的最优化,得到的参数就是一个较好的参数 两个对抗函数: 函数一:是判别损失函数,使得判别式的准确率越来越大, 及self.D1被判断为1, self.D2被判断为0 self.loss_d = tf.reduce_me 阅读全文
posted @ 2018-09-09 21:09 python我的最爱 阅读(580) 评论(0) 推荐(0) 编辑
跟我学算法- tensorflow 卷积神经网络训练验证码
摘要:使用captcha.image.Image 生成随机验证码,随机生成的验证码为0到9的数字,验证码有4位数字组成,这是一个自己生成验证码,自己不断训练的模型 使用三层卷积层,三层池化层,二层全连接层来进行组合 第一步:定义生成随机验证码图片 第二步: 生成训练样本 第三步: 定义CNN,这里的CNN 阅读全文
posted @ 2018-09-03 11:44 python我的最爱 阅读(1172) 评论(0) 推荐(0) 编辑
跟我学算法- tensorflow 实现RNN操作
摘要:对一张图片实现rnn操作,主要是通过先得到一个整体,然后进行切分,得到的最后input结果输出*_w[‘out’] + _b['out'] = 最终输出结果 第一步: 数据载入 第二步: 初始化参数 第三步: 构建RNN函数 第四步: 构建cost函数和准确度函数 第五步: 训练模型, 降低cost 阅读全文
posted @ 2018-09-01 22:49 python我的最爱 阅读(747) 评论(0) 推荐(0) 编辑
跟我学算法- tensorflow VGG模型进行测试
摘要:我们使用的VGG模型是别人已经训练好的一个19层的参数所做的一个模型 第一步:定义卷积分部操作函数 第二步:定义卷积操作函数 第三步: 构造文件路径 第四步:训练模型,输出特征图像 阅读全文
posted @ 2018-09-01 18:48 python我的最爱 阅读(785) 评论(0) 推荐(0) 编辑
跟我学算法-tensorflow 实现卷积神经网络附带保存和读取
摘要:这里的话就不多说明了,因为上上一个博客已经说明了 阅读全文
posted @ 2018-09-01 15:15 python我的最爱 阅读(335) 评论(0) 推荐(0) 编辑
跟我学算法- tensorflow模型的保存与读取 tf.train.Saver()
摘要:save = tf.train.Saver() 通过save. save() 实现数据的加载 通过save.restore() 实现数据的导出 第一步: 数据的载入 第二步: 数据的导出 阅读全文
posted @ 2018-09-01 14:44 python我的最爱 阅读(357) 评论(0) 推荐(0) 编辑
跟我学算法-tensorflow 实现卷积神经网络
摘要:我们采用的卷积神经网络是两层卷积层,两层池化层和两层全连接层 我们使用的数据是mnist数据,数据训练集的数据是50000*28*28*1 因为是黑白照片,所以通道数是1 第一次卷积采用64个filter, 第二次卷积采用128个filter,池化层的大小为2*2,我们采用的是两次全连接 第一步:导 阅读全文
posted @ 2018-09-01 11:56 python我的最爱 阅读(333) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示