ISL学习——tensorflow部分指令
tf.keras.layers.Sequential() #用来描述神经网络的结构,其中Sequential()里面的参数是用来描述从输入层到输出层的网络结构。
modnn = tf.keras.Sequential( [ tf.keras.layers.Dense(units = 10, #参数为正整数,表示输出空间的维数为10维 activation = 'relu'), #参数为激活函数类型,这里选择ReLU激活函数;activation = None 表示没有激活函数;默认情况下,系统不会使用任何激活函数 tf.keras.layers.Dropout(rate = 0.4), #rate = 0.4,表示将数据变成0的概率为0.4 tf.keras.layers.Dense(units = 1, activation = 'sigmoid') ] )
model.compile() #方法用于在配置训练方法时,告知训练时用的优化器、损失函数和准确率评测标准 #具体格式为: model.compile(optimizer = 优化器, loss = 损失函数, metrics = ["准确率”])
modnn.compile(loss = 'binary_crossentropy', #损失函数为 binary_crossentropy optimizer = 'rmsprop', #优化器为 rmsprop metrics = 'accuracy') #网络评价指标为 accuracy
modnn.fit(x, y, batch_size, epochs, verbose, validation_split, validation_data, validation_freq)
#x, y 分别表示训练集的输入和输出 #batch_size 表示训练一次网络所用的样本数 #epichs 表示迭代次数 #verbose 表示是否输出信息。verbose = '0'表示不输出信息, verbose = '1'表示输出信息。 #validation_split 表示(0,1)的浮点数,分割数据当验证数据,其它当训练数据 #validation_data 表示验证数据,该数据将覆盖validation_spilt设定的数据 #validation_freq 表示验证数据的epoch #callback 在每个training/epoch/batch结束时,可以通过回调函数Callbacks查看一些内部信息。常用的callback有EarlyStopping,当监视的变量停止改善时,停止训练,防止模型过拟合,其默认参数如下:
callback=callbacks.EarlyStopping(monitor='loss',min_delta=0.002,patience=0,mode='auto',restore_best_weights=False)
参考文章:
【推荐】国内首个AI IDE,深度理解中文开发场景,立即下载体验Trae
【推荐】编程新体验,更懂你的AI,立即体验豆包MarsCode编程助手
【推荐】抖音旗下AI助手豆包,你的智能百科全书,全免费不限次数
【推荐】轻量又高性能的 SSH 工具 IShell:AI 加持,快人一步
· winform 绘制太阳,地球,月球 运作规律
· AI与.NET技术实操系列(五):向量存储与相似性搜索在 .NET 中的实现
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)