摘要:
https://blog.csdn.net/qq_42394743/article/details/82951240 https://www.jianshu.com/p/1a1339c4acd7 阅读全文
摘要:
在使用tf.log时,如果输入为0.则loss为nan 这时使用 tf.clip_by_value(1-y,1e-10,1.0)将一个张量中的数值限制在一个范围之内。(可以避免一些运算错误:可以保证在进行log运算时,不会出现log0这样的错误或者大于1的概率) tf.clip_by_value(1 阅读全文
摘要:
正则化的目的是为了防止过拟合,降低模型的复杂度。 正则化的打开方式: 在目标函数后面添加一个系数的“惩罚项”。 式中, 是一个常数, 为样本个数, 是一个超参数,用于控制正则化程度。 1、L1正则化:在目标函数后面加了所有特征系数的绝对值之和。L1正则化更适用于特征选择,每次更新过程中会减去或加上一 阅读全文
摘要:
https://blog.csdn.net/Forlogen/article/details/89608973 阅读全文
摘要:
plt.cla() # 清除axes,即当前 figure 中的活动的axes,但其他axes保持不变。 plt.clf() # 清除当前 figure 的所有axes,但是不关闭这个 window,所以能继续复用于其他的 plot。 plt.close() # 关闭 window,如果没有指定,则 阅读全文
摘要:
fig,ax = plt.subplots()等价于:fig = plt.figure()ax = fig.add_subplot(1,1,1)fig, ax = plt.subplots(1,3),其中参数1和3分别代表子图的行数和列数,一共有 1x3 个子图像。函数返回一个figure图像和子图 阅读全文
摘要:
ax.legend()作用:在图上标明一个图例,用于说明每条曲线的文字显示 import matplotlib.pyplot as plt import numpy as np x = np.arange(10) fig = plt.figure() ax = plt.subplot(111) fo 阅读全文
摘要:
将训练过程可视化出来 import tensorflow as tf import numpy as np import matplotlib.pyplot as plt # 去掉警告 import warnings warnings.filterwarnings("ignore",".*GUI i 阅读全文
摘要:
一个神经网络系统,由很多层组成,输入层用来接收信息,中间层加工处理输入信息,输出层就是计算机对这个输入信息的认知。 https://www.jianshu.com/p/e112012a4b2d 搭建神经网络基本流程 定义添加神经层的函数 1.训练的数据 2.定义节点准备接收数据 3.定义神经层:隐藏 阅读全文
摘要:
def add_layer(input,in_size,out_size,activation_fuction=None): Weight = tf.Variable(tf.random.normal([in_size,out_size])) biases = tf.Variable(tf.rand 阅读全文