ISL学习——tensorflow部分指令

tf.keras.layers.Sequential() #用来描述神经网络的结构,其中Sequential()里面的参数是用来描述从输入层到输出层的网络结构。
modnn = tf.keras.Sequential(
    [
        tf.keras.layers.Dense(units = 10, #参数为正整数,表示输出空间的维数为10维
                             activation = 'relu'), #参数为激活函数类型,这里选择ReLU激活函数;activation = None 表示没有激活函数;默认情况下,系统不会使用任何激活函数
        tf.keras.layers.Dropout(rate = 0.4), #rate = 0.4,表示将数据变成0的概率为0.4
        tf.keras.layers.Dense(units = 1, activation = 'sigmoid')
    ]
)
model.compile() #方法用于在配置训练方法时,告知训练时用的优化器、损失函数和准确率评测标准
#具体格式为:
model.compile(optimizer = 优化器,
                        loss = 损失函数,
                        metrics = ["准确率”])
modnn.compile(loss = 'binary_crossentropy', #损失函数为 binary_crossentropy
              optimizer = 'rmsprop', #优化器为 rmsprop
              metrics = 'accuracy') #网络评价指标为 accuracy

 

复制代码
modnn.fit(x, y, batch_size, epochs, verbose, validation_split, validation_data, validation_freq)
#x, y 分别表示训练集的输入和输出 #batch_size 表示训练一次网络所用的样本数 #epichs 表示迭代次数 #verbose 表示是否输出信息。verbose = '0'表示不输出信息, verbose = '1'表示输出信息。 #validation_split 表示(0,1)的浮点数,分割数据当验证数据,其它当训练数据 #validation_data 表示验证数据,该数据将覆盖validation_spilt设定的数据 #validation_freq 表示验证数据的epoch #callback 在每个training/epoch/batch结束时,可以通过回调函数Callbacks查看一些内部信息。常用的callback有EarlyStopping,当监视的变量停止改善时,停止训练,防止模型过拟合,其默认参数如下:
callback=callbacks.EarlyStopping(monitor='loss',min_delta=0.002,patience=0,mode='auto',restore_best_weights=False)
复制代码

 

参考文章:

(8条消息) tensorflow中model.compile()用法_yunfeather的博客-CSDN博客

(8条消息) model.fit( )函数:训练模型_方如一的博客-CSDN博客

posted @   路人呃呃  阅读(27)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
点击右上角即可分享
微信分享提示