tensorflow踩坑合集1. feature_column

踩坑内容包含以下

  1. feature_column的输入输出类型,用一个数据集给出demo
  2. feature_column接estimator
  3. feature_column接Keras

feature_column 输入输出类型

输入输出类型

feature_column输入可以是原始特征的列名,或者是feature_column。初上手感觉feature_column设计的有点奇怪,不过熟悉了逻辑后用起来还是很方便的。几个需要习惯一下的点:

  1. 深度模型的输入必须是Dense类型,所有输出是categorical类型需要经过indicator或者embedding的转换才可以
  2. indicator, embedding, bucketized的输入不能是原始特征,前两者只能是categorical类型的feature_column, 后者只能是numeric_column
feature_column 输入 输出 输出是否为dense
categorical_column_with_identity 数值型离散 categorical N
categorical_column_with_vocabulary_list 字符型/数值型离散 categorical N
categorical_column_with_hash_bucket 类别太多的离散值 categorical N
crossed_column categorical/离散值 categorical N
indicator_column categorical one/multi-hot Y
embedding_column categorical dense vector Y
numeric_column 数值型连续值 numeric Y
bucketzied_column numeric_column one-hot Y

以下给出各种特征工程的demo,原始特征如下

输入-连续值

输入-离散值

输入-categorical

feature_column接estimator

如果是使用预定义的estimator, feature_column可以直接作为输入,不需要任何额外操作,只需要注意深度模型只支持Dense类型的feature_column即可。

如果是自定义estimator,则需要多一步用feature_column先创建input_layer

input_layer = tf.feature_column.input_layer(features, feature_columns)

如果input_layer之后连接的是tf.layers,那直接进行操作即可,如果是进行自定义variable的各种操作,还有一个坑!因为上面input_layer的shape需要动态地赋给tf.get_vairable但tf.get_variable是不接受TensorShape作为shape输入的,所以以下代码会报错

input_dim = input.get_shape().as_list()[-1]
w = tf.get_variable('w', shape = [input_dim,1], dtype = tf.float32, validate_shape = False)

绕过的办法就是使用initializer, 因为initializer是可以动态定义shape的

input_dim = input.get_shape().as_list()[-1]
init = tf.random_normal( shape = (input_dim,1) )
w = tf.get_variable('w', dtype = tf.float32, initializer = init, validate_shape = False)

feature_column接keras

为什么要这么搭配呢,好像是没啥必要,只不过进一步证明tf的官方文档确实坑而已。。。

def model_fn():
    #define Keras input 
    input = {}
    for f in FEATURE_NAME:
        input[f] = Input(shape=(1,), name = f, dtype = DTYPE[f])
    #generate feature_columns
    feature_columns = build_features()
    
    #Define transformation from feature_columns to Dense Tensor 
    feature_layer = tf.keras.layers.DenseFeatures( feature_columns )
    #Transform input 
    dense_feature = feature_layer(input)
    
    output = Dense(1, activation='sigmoid')(dense_feature)
    #feed input placeholder as list 
    model = Model(inputs = [i for i in input.values()], outputs = output)

    return model

持续更新中...

posted @ 2020-03-07 16:57  风雨中的小七  阅读(4470)  评论(0编辑  收藏  举报