摘要:
阅读全文
摘要:
https://blog.csdn.net/weixin_42499236/article/details/83933629 阅读全文
摘要:
gvs = optimizer.compute_gradients(loss) # 计算出梯度和变量值 capped_gvs = [(tf.clip_by_value(grad, -5e+10, 5e+10), var) for grad, var in gvs] # 梯度裁剪 train_op = optimizer.apply_gradients(capped_gvs, global_ste... 阅读全文
摘要:
Adam 方法 Adam 方法将惯性保持和环境感知这两个优点集于一身。一方面, Adam 记录梯度的一阶矩(first moment),即过往梯度与当前梯度的平均,这体现了惯性保持;另一方面,Adam 还记录梯度的二阶矩(second moment),即过往梯度平方与当前梯度平方的平均,这类似Ada 阅读全文
摘要:
with tf.gfile.GFile(os.path.join(self.model_dir, 'ner_model.pb'), 'rb') as f: graph_def = self.tf.GraphDef() graph_def.ParseFromString(f.read()) input_map = {"input_ids:0": self.inp... 阅读全文
摘要:
1.安装java,并配置环境变量 a) tar -zxvf xxxx.tar.gz a) groupadd elsearch 9. 执行ES文件 a) cd /usr/es/elasticsearch/bin b) ./elasticsearch 10.下载Kibana: https://www.e 阅读全文
摘要:
训练时: 1. 输入正确标签一次性解码出来 预测时: 1. 第一次输入1个词,解码出一个词 第二次输入第一次输入的词和第一次解码出来词一起,解码出来第3个词,这样依次解码,解码到最长的长度或者<pad>。就结束。 训练时,全部输入与预测时一个一个输入是一样的 1. 需要传入词向量 2.positio 阅读全文