04 2018 档案
摘要:恢复内容开始 前面,读书笔记用加入正则化损失模型效果带来的提升要相对显著。 变量管理: 目的:当神经网络的结构更加复杂,参数更多的时候,就需要一个更好的方式来管理神经网络中的参数。 解决方法:提供了通过变量名称来创建或者获取一个变量的机制。 作用:在不同的函数可以通过变量的名字来使用变量。而不需要通
阅读全文
摘要:生成模型: 通过观测学习样本和标签的联合概率分布P(X,Y)进行训练,训练好的模型能够生成符合样本分布的新数据,在无监督学习方面,生成式模型能够捕获数据的高阶相关性,通过学习真实数据的本质特征,刻画样本数据的分布特征,生成与训练样本相似的新数据 生成式模型的分类:1. Autoencoder 2.自
阅读全文
摘要:过拟合: 真实的应用中,并不是让模型尽量模拟训练数据的行为,而是希望训练数据对未知做出判断。 模型过于复杂后,模型会积极每一个噪声的部分,而不是学习数据中的通用 趋势。当一个模型的参数比训练数据还要多的时候,这个模型就可以记忆这个所以训练数据的结果,而使损失函数为0. 避免过拟合的常用方法:正则化。
阅读全文
摘要:1 import tensorflow as tf 2 from tensorflow.examples.tutorials.mnist import input_data 3 4 '''数据下载''' 5 mnist=input_data.read_data_sets('Mnist_data',one_hot=True) 6 #one_hot标签 7 8 ''...
阅读全文
摘要:线性拟合的思路: 线性拟合代码: 神经网络拟合二次函数(带噪声) 代码: 补充知识 : 1.tf.random.uniform() 符合均匀分布 tf.random.normal() 符合正太分布 2.np.newaxis补充知识 : import numpy as npa=np.array([1,
阅读全文