Tensorflow 方法记录

1.tf.convert_to_tensor:传入的list必须是一个有固定长度的list,如果为2维的list,第二维的list的长度必须是固定。

 

2.tf.layers.conv1d(),默认宽卷积,里面的参数filter_size,为卷积核的height,而卷积核的width为输入的width

传入的是一个[batch_size,width,height],输出的是一个[batch_size,height,filter_num]

 

3.tf.layers.conv2d(),里面的参数filter_size为一个tuple,为卷积核的大小

传入的是一个[batch_size,width,height,channel_num],输入的是一个[batch_size,after_conv_width,afer_conv_height,filter_num]

 

4.tf.stack():拼接矩阵,可以指定维数,如果指定维数的话,那么拼接的就是指定维数的数据,如果不指定维数,那么就是拼接全部。

 

5.tf.unstack():拆解一个矩阵,可以指定维度。

 

tensorflow tf.split 和 tf.unstack 实例

import tensorflow as tf

A = [[1, 2, 3], [4, 5, 6]]
a0 = tf.split(A, num_or_size_splits=3, axis=1)
a1 = tf.unstack(A, num=3,axis=1)
a2 = tf.split(A, num_or_size_splits=2, axis=0)
a3 = tf.unstack(A, num=2,axis=0)
with tf.Session() as sess:
    print(sess.run(a0))
    print(sess.run(a1))
    print(sess.run(a2))
    print(sess.run(a3))

 

[array([[1],[4]]), array([[2],[5]]), array([[3],[6]])] 
[array([1, 4]), array([2, 5]), array([3, 6])] 
[array([[1, 2, 3]]), array([[4, 5, 6]])] 
[array([1, 2, 3]), array([4, 5, 6])]

 

tf.squeeze()

去掉维数为1的维度。 
举个栗子:

# 't' is a tensor of shape [1, 2, 1, 3, 1, 1]
tf.shape(tf.squeeze(t))  # [2, 3]

 

也可以指定去掉哪个维度:

# 't' is a tensor of shape [1, 2, 1, 3, 1, 1]
tf.shape(tf.squeeze(t, [2, 4]))  # [1, 2, 3, 1]

 

6.tf.assign()

https://www.jianshu.com/p/fc5f0f971b14

 

7.当出现变量已经存在时,要添加tf.name_scope()

 

8.tf.multiply() 点乘, 区别于tf.matul

  a.如果是一个矩阵乘以一个数,矩阵里面每一个数都乘以这个数。

  b.可以一个数乘以一个数

 

9.tf.contrib.rnn.static_bidirectional_rnn:组合正序和逆序,输入: [sequence_length, batch_size, hidden_size],输出: [sequence, batch_size, 2 * output_size], forward_state: [batch_size, 2 * output_size], backward_size: [batch_size, 2 * output_size]

encoder_outputs, forward_state, backward_state = rnn.static_bidirectional_rnn(forward_cell,
                                                        backward_cell, input_content_emb, dtype=tf.float32,
                                                        sequence_length=self.config.sequence_length)

 

10.tf.greater():

  tf.greater 的输入是两个张量,此函数会比较这两个输入张量中每一个元素的大小,并返回比较结果。当tf.greater 的输入张量维度不一样时, Ten sorFlow 会进行类似NumPy 广播操作( broadcasting )的处理。

 

11.tf.where()

  tf.where函数有三个参数。第一个为选择条件根据, 当选择条件为True 时, tf.where 函数会选择第二个参数中的值, 否则使用第三个参数中的值。

 

12.tf.train.exponential decay()

  

  1.learning_rate:初始化的学习率

  2.global_step:当前的步数

  3.decay_steps:多少步衰减一次。

  4.decay_rate: 衰减率

  5.staricase:是否为阶梯衰减,设计为True的话, decay_steps=len(dataset)/len(batch)

 

13.tf.contrib.layers.l2_regularizer(weight_decay)(weight)/tf.contrib.layers.l1_regularizer(weight_decay)(weight)

  正则化,下图为实例:

 

14. tf.variable_scope() tf.get variable()

 

15. tf.abs() 求绝对值

 

16. tf.tile() 

tf.tile(  
    input,     #输入  
    multiples,  #某一维度上复制的次数  
    name=None  
)

 

import tensorflow as tf
a = tf.tile([1,2,3],[2])
b = tf.tile([[1,2],
             [3,4],
             [5,6]],[2,3])
with tf.Session() as sess:
    print(sess.run(a))
    print(sess.run(b))

 

 

17. tf.einsum()

# Matrix multiplication
>>> einsum('ij,jk->ik', m0, m1)  # output[i,k] = sum_j m0[i,j] * m1[j, k]

# Dot product
>>> einsum('i,i->', u, v)  # output = sum_i u[i]*v[i]

# Outer product
>>> einsum('i,j->ij', u, v)  # output[i,j] = u[i]*v[j]

# Transpose
>>> einsum('ij->ji', m)  # output[j,i] = m[i,j]

# Batch matrix multiplication
>>> einsum('aij,ajk->aik', s, t)  # out[a,i,k] = sum_j s[a,i,j] * t[a, j, k]

 

posted @ 2018-05-23 11:12  下路派出所  阅读(353)  评论(0编辑  收藏  举报