P74 复习
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=74 注解: 这是一个230*240的彩色图片。 卷积层相当于做特征,把特征提取出来。 为何函数使用relu(),不是sigmoid()函数了,原因: 1.sigmoid()计算量大。 如果网络深度深的话,在
阅读全文
posted @
2020-12-26 17:38
一杯明月
阅读(219)
推荐(0) 编辑
P73 卷积神经网络识别手写数字
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=73 数据集介绍: 1.设计占位符: 注解: [None, 784] 样本数据量未知。[None, 10] 每个样本都有10个类别的概率。 2.设计网络结构: 注解: 最后一层全连接层,[7,7,64]要变成
阅读全文
posted @
2020-12-25 17:13
一杯明月
阅读(356)
推荐(0) 编辑
P71 激活层与池化层
摘要:https://www.bilibili.com/video/BV184411Q7Ng?p=71 有多少个(对于3通道彩色图像来说,是组)filter,图像的输出通道数就是多少。 步长是1是为了观测更仔细。 卷积神经网络为何不使用之前的sigmoid()函数,而要适用新的relu激活函数呢? 一个卷
阅读全文
posted @
2020-12-24 22:52
一杯明月
阅读(203)
推荐(0) 编辑
P70 卷积神经网络介绍以及卷积结构
摘要:http://bilibili.com/video/BV184411Q7Ng?p=70 注解: 最后一层一定是全连接层,目的是为了输出类别 假设原始图片是单通道, 100个卷积核去观察,会把图像的通道数变成100. 有多少组filter,就得到多少通道的图像。 本例有两组filter,就得到一个2通
阅读全文
posted @
2020-12-24 16:50
一杯明月
阅读(175)
推荐(0) 编辑
P39 逻辑回归的定义,损失函数,优化
摘要:注解: 解决的是二分类问题。 逻辑回归的应用场景: sigmoid函数和数轴交叉的位置的值是:0.5
阅读全文
posted @
2020-12-24 15:58
一杯明月
阅读(227)
推荐(0) 编辑
P38 模型的保存与加载
摘要:保存模型主要指:保存模型训练好的权重。 以房价预测的岭回归为例: #load_boston里面的数值都是连续的 import math from sklearn.datasets import load_boston #从sklearn中的线性模型导入线性回归,SGD随机梯度下降 from skle
阅读全文
posted @
2020-12-24 15:34
一杯明月
阅读(189)
推荐(0) 编辑
P37 Ridge岭回归分析
摘要:http://bilibili.com/video/BV184411Q7Ng?p=37 #python岭回归进行房间预测: #load_boston里面的数值都是连续的 from sklearn.datasets import load_boston #从sklearn中的线性模型导入线性回归,SG
阅读全文
posted @
2020-12-24 14:31
一杯明月
阅读(322)
推荐(0) 编辑
P36 过拟合与欠拟合
摘要:http://bilibili.com/video/BV184411Q7Ng?p=36 图1(欠拟合,习得的特征太少了) 图2(过拟合,习得的特征太多了) 注解: 欠拟合的特点是训练和测试误差都大。 过拟合的特点是训练误差小,测试误差大。 注解: 2.0和10.0代表的是均方误差,即过拟合的特点是训
阅读全文
posted @
2020-12-23 19:32
一杯明月
阅读(208)
推荐(0) 编辑
P35 线性回归两种求解方式总结
摘要:不通过正规方程的方式,通过的梯度下降的方式进行房价预测: 如果数据量少,特征数量少,可以用正规方程求解系数和预测值。 如果样本量大,特征数量多,不要用正规方程进行系数求解和预测,最好用梯度下降的方法进行迭代求解。 正规方程与随机梯度下降求得的权重和预测值的差值: #load_boston里面的数值都
阅读全文
posted @
2020-12-23 15:16
一杯明月
阅读(481)
推荐(0) 编辑
P34 线性回归的策略、优化、案例
摘要:http://bilibili.com/video/BV184411Q7Ng?p=34 线性回归:就是找到合适的权阵,与每一个特征相乘,最后求和,得出要预测的目标值。 实际生活中,数据分布没有那么简单,并不是严格在一条直线上,所以即便使用机器学习用线性回归模型预测,也是有误差的。 注解: 红色小线段
阅读全文
posted @
2020-12-21 23:01
一杯明月
阅读(796)
推荐(0) 编辑
P33 线性回归的定义及矩阵的运算
摘要:目标值:是连续型的值,在某个区间内可以取任意数值,即可以无限的划分。 离散型随机变量有取某个值的概率 连续型随机变量没有取得某个值的概率。 以下问题归类为回归问题: 注解: 西瓜好坏的例子,是把连续型的值转变为了离散的值(好、坏),是把一个回归问题转变为了一个分类问题。 回归例子: 注解: 这里的属
阅读全文
posted @
2020-12-21 16:55
一杯明月
阅读(509)
推荐(0) 编辑
P53 trainable 学习率的调整,梯度爆炸
摘要:import tensorflow as tf def myregession(): """ 自实现一个线性回归预测 :return: None """ #1. 准备数据 x 特征值,[100,1], 100个样本,1个特征 # y 目标值 ,[100] x=tf.random_normal([10
阅读全文
posted @
2020-12-21 16:40
一杯明月
阅读(192)
推荐(0) 编辑
P52 线性回归的原理的复习及实现
摘要:注解: 线性回归就是找到合适的权重w1,w2,w3,w4,w5乘以相应的特征之后,使得第一个预测值与20接近,第二个预测值与30接近。 先不考虑5个特征,考虑一个特征的简单情况: 注解: 模型参数只有用变量定义,才会被更新 import tensorflow as tf def myregessio
阅读全文
posted @
2020-12-21 16:32
一杯明月
阅读(396)
推荐(0) 编辑
P51 可视化学习
摘要:注解: 普通的张量,随便定义的一个tensor,是不能被训练的 import tensorflow as tf a=tf.constant([1,2,3,4,5,6]) var=tf.Variable(tf.random_normal([2,3],mean=0.0,stddev=1.0)) prin
阅读全文
posted @
2020-12-21 14:59
一杯明月
阅读(145)
推荐(0) 编辑
P50 运算API介绍
摘要:import tensorflow as tf zero=tf.zeros([3,4],tf.float32) with tf.Session() as sess: print(zero.eval()) 运行结果: [[0. 0. 0. 0.] [0. 0. 0. 0.] [0. 0. 0. 0.]
阅读全文
posted @
2020-12-21 11:00
一杯明月
阅读(128)
推荐(0) 编辑
P49 张量的定义以及例子
摘要:http://bilibili.com/video/BV184411Q7Ng?p=49 注解: 张量其实就是numpy里面的数组,是对numpy中数组的封装。 注解: "add:0"里面的0没有啥意义 如果再定义一个add加法,会显示"add_1:0","add_2:0","add_3:0","ad
阅读全文
posted @
2020-12-20 17:06
一杯明月
阅读(433)
推荐(0) 编辑
P48 会话的run()方法
摘要:import tensorflow as tf #创建一张图包含了一组op和tensor,上下文环境 #g=tf.Graph() #print(g) #当创建了新的图后,又分配了新的内存 #with g.as_default(): # c=tf.constant(12.0) # print(c.gr
阅读全文
posted @
2020-12-20 16:21
一杯明月
阅读(218)
推荐(0) 编辑
P47 会话 tf.Session()
摘要:注解: 使用上下文管理器则不需要再写sess.close()这句话去释放sess会话掌握的资源了。 红色config那句可以打印出某些运算是在哪一个设备里面运行的。
阅读全文
posted @
2020-12-20 12:37
一杯明月
阅读(96)
推荐(0) 编辑
P46 tensorflow的图
摘要:数据流动 张量流动 import tensorflow as tf #实现一个加法运算 a=tf.constant(5.0) b=tf.constant(6.0) sum1=tf.add(a,b) #图的定义,默认的这张图,相当于是给程序分配一段内存 graph=tf.get_default_gra
阅读全文
posted @
2020-12-20 12:34
一杯明月
阅读(135)
推荐(0) 编辑
P45 tensorflow的图结构
摘要:加法运算的一般的程序写法: 只打印出来了数据类型,而没有结果,可见,tensorflow写程序不像一般程序那么简单。 结果出来了。 体现了tensorflow的思想。 在tensorflow中,数据被称为张量。
阅读全文
posted @
2020-12-20 11:45
一杯明月
阅读(118)
推荐(0) 编辑