keras模块学习之层(layer)的使用-笔记
本笔记由博客园-圆柱模板 博主整理笔记发布,转载需注明,谢谢合作!
keras的层主要包括:
常用层(Core)、卷积层(Convolutional)、池化层(Pooling)、局部连接层、递归层(Recurrent)、嵌入层( Embedding)、高级激活层、规范层、噪声层、包装层,当然也可以编写自己的层
对于层的操作
layer.get_weights() #返回该层的权重 layer.set_weights(weights)#将权重加载到该层 config = layer.get_config()#保存该层的配置 layer = layer_from_config(config)#加载一个配置到该层 #该层有一个节点时,获得输入张量、输出张量、及各自的形状: layer.input layer.output layer.input_shape layer.output_shape #该层有多个节点时(node_index为节点序号): layer.get_input_at(node_index) layer.get_output_at(node_index) layer.get_input_shape_at(node_index) layer.get_output_shape_at(node_index)
Dense层(全连接层)
keras.layers.core.Dense(output_dim, init='glorot_uniform', activation='linear', weights=None, W_regularizer=None, b_regularizer=None, activity_regularizer=None, W_constraint=None, b_constraint=None, bias=True, input_dim=None)
output_dim:输出数据的维度
init:初始化该层权重的方法
activation:该层的激活函数
weights:numpy array的list。该list应含有一个形如(input_dim,output_dim)的权重矩阵和一个形如(output_dim,)的偏置向量
regularizer:正则项,w为权重的、b为偏执的,activity为输出的
constraints:约束项
bias:是否包含偏执向量,是布尔值
input_dim:输入数据的维度
dropout层
keras.layers.core.Dropout(p)
为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时随机断开一定百分比(p)的输入神经元连接,Dropout层用于防止过拟合。
千行代码,Bug何处藏。 纵使上线又怎样,朝令改,夕断肠。