2019年1月27日

摘要: 这两周我学习了北京大学曹建老师的TensorFlow笔记课程,认为老师讲的很不错的,很适合于想要在短期内上手完成一个相关项目的同学,课程在b站和MOOC平台都可以找到。 在卷积神经网络一节,课程以lenet5为例,给出了完整的代码,通过这样一个例子完成了模型构建、较大数据量的训练和测试。整个代码不复 阅读全文
posted @ 2019-01-27 22:43 洋娃娃和小熊跳舞 阅读(1653) 评论(0) 推荐(0) 编辑
 
摘要: 参考黄文坚《TensorFlow实战》一书,完成AlexNet的整体实现并展望其训练和预测过程。 后续形成实现卷积神经网络构建、训练、测试的代码架构,会将Alexnet实现结构重新组织完整和优化。 阅读全文
posted @ 2019-01-27 22:17 洋娃娃和小熊跳舞 阅读(345) 评论(0) 推荐(0) 编辑
 

2019年1月19日

摘要: 实现过一个例子之后,对TensorFlow运行机制有了初步的了解,但脑海中还没有一个如何实现神经网络的一个架构模型。下面我们来探讨如何模块化搭建神经网络,完成数据训练和预测。 首先我们将整体架构分为两个模块: forward.py 和 backward.py forward.py 主要完成神经网络模 阅读全文
posted @ 2019-01-19 22:27 洋娃娃和小熊跳舞 阅读(285) 评论(0) 推荐(0) 编辑
 

2019年1月16日

摘要: 首先应用TensorFlow完成一个线性回归,了解TensorFlow的数据类型和运行机制。 在训练完成后,用test数据集进行测试,训练和测试得到的数据结果如下: 训练和测试得到的结果图像如下: 接下来,做一个简单的逻辑回归进行手写数字识别例子,来进一步感受一下TensorFlow应用中,计算图的 阅读全文
posted @ 2019-01-16 12:44 洋娃娃和小熊跳舞 阅读(641) 评论(0) 推荐(0) 编辑
 

2018年12月7日

摘要: 一、 神经网络引入 我们将从计算机视觉直观的问题入手,提出引入非线性分类器的必要性。首先,我们希望计算机能够识别图片中的车。显然,这个问题对于计算机来说是很困难的,因为它只能看到像素点的数值。 应用机器学习,我们需要做的就是提供大量带标签的图片作为训练集,有的图片是一辆车,有的图片不是一辆车,最终我 阅读全文
posted @ 2018-12-07 14:55 洋娃娃和小熊跳舞 阅读(2223) 评论(0) 推荐(0) 编辑
 

2018年12月1日

摘要: 一、 过拟合问题 1. 引入 线性回归当中: 假设我们拿出房屋面积与房价的数据集,随着面积的增大,房价曲线趋于平缓。第一个模型不能很好地拟合,具有高偏差(欠拟合)。我们加入二次项后曲线可以较好的拟合,用第三个模型去拟合时,它通过了所有的数据点,但它是一条扭曲的线条,不停上下波动,我们并不认为它是一个 阅读全文
posted @ 2018-12-01 12:12 洋娃娃和小熊跳舞 阅读(564) 评论(0) 推荐(0) 编辑
 

2018年11月30日

摘要: 一、Logistic回归实现 (一)特征值较少的情况 1. 实验数据 吴恩达《机器学习》第二课时作业提供数据1。判断一个学生能否被一个大学录取,给出的数据集为学生两门课的成绩和是否被录取,通过这些数据来预测一个学生能否被录取。 2. 分类结果评估 横纵轴(特征)为学生两门课成绩,可以在图中清晰地画出 阅读全文
posted @ 2018-11-30 15:51 洋娃娃和小熊跳舞 阅读(624) 评论(0) 推荐(0) 编辑
 

2018年11月26日

摘要: Logistic回归模型 1. 模型简介: 线性回归往往并不能很好地解决分类问题,所以我们引出Logistic回归算法,算法的输出值或者说预测值一直介于0和1,虽然算法的名字有“回归”二字,但实际上Logistic回归是一种分类算法(classification y = 0 or 1)。 Logis 阅读全文
posted @ 2018-11-26 09:59 洋娃娃和小熊跳舞 阅读(1644) 评论(0) 推荐(0) 编辑
 

2018年11月15日

摘要: 一、向量化 对于大量的求和运算,向量化思想往往能提高计算效率(利用线性代数运算库),无论我们在使用MATLAB、Java等任何高级语言来编写代码。 运算思想及代码对比 的同步更新过程向量化 向量化后的式子表示成为: 其中是一个向量,是一个实数,是一个向量,所以在这里是做一个向量的减法。在将计算向量化 阅读全文
posted @ 2018-11-15 21:31 洋娃娃和小熊跳舞 阅读(464) 评论(0) 推荐(0) 编辑
 

2018年11月9日

摘要: (一)引入—梯度下降算法 1. 线性假设: 2. 方差代价函数: 3. 梯度下降: 4. : learning rate (用来控制我们在梯度下降时迈出多大的步子,值较大,梯度下降就很迅速) 值过大易造成无法收敛到minimum(每一步迈更大) 值较小且适宜的情况下,步子越来越小直到收敛(导数项为零 阅读全文
posted @ 2018-11-09 22:43 洋娃娃和小熊跳舞 阅读(502) 评论(0) 推荐(0) 编辑