11 2019 档案

摘要:Lift图衡量的是,与不利用模型相比,模型的预测能力“变好”了多少,lift(提升指数)越大,模型的运行效果越好。 TP:划一个阈值后的正样本。 P:总体的正样本。 在模型评估中,我们常用到增益/提升(Gain/Lift)图来评估模型效果,其中的Lift是“运用该模型”和“未运用该模型”所得结果的比 阅读全文
posted @ 2019-11-24 18:36 光彩照人 阅读(1475) 评论(0) 推荐(0) 编辑
摘要:很多时候在运行python代码的时候我们需要从外部定义参数,从而避免每次都需要改动代码,tf就提供了tf.app.flags功能。 阅读全文
posted @ 2019-11-24 17:58 光彩照人 阅读(254) 评论(0) 推荐(0) 编辑
摘要:一、变量相关的函数 1)tf.train.list_variables(ckpt_dir_or_file) Returns list of all variables in the checkpoint 2)tf.global_variables_initializer() 用于初始化所有的变量(G 阅读全文
posted @ 2019-11-18 22:18 光彩照人 阅读(1685) 评论(0) 推荐(0) 编辑
摘要:一、计算图 TensorFlow中两个最重要的概念,一个是Tensor,一个是Flow。Tensor就是张量,Flow就是计算流。计算图中的每个节点就是一个张量,而张量之间的依赖关系就是计算流,也就是在计算图中从一个Tensor通过计算流到另一个Tensor。 在上述代码中,TensorFlow会自 阅读全文
posted @ 2019-11-17 19:03 光彩照人 阅读(1065) 评论(0) 推荐(0) 编辑
摘要:除了之前较为流行的RELU激活函数,最近又新出了几个效果较好的激活函数 一、BERT激活函数 - GELU(gaussian error linear units)高斯误差线性单元 数学公式如下: X是服从标准正态分布的变量。 近似的数学计算公式如下: 函数图如下: 橙色曲线为:GELU 蓝色曲线为 阅读全文
posted @ 2019-11-03 17:56 光彩照人 阅读(1331) 评论(0) 推荐(0) 编辑
摘要:一、BERT整体结构 BERT主要用了Transformer的Encoder,而没有用其Decoder,我想是因为BERT是一个预训练模型,只要学到其中语义关系即可,不需要去解码完成具体的任务。整体架构如下图: 多个Transformer Encoder一层一层地堆叠起来,就组装成了BERT了,在论 阅读全文
posted @ 2019-11-03 13:11 光彩照人 阅读(46470) 评论(3) 推荐(15) 编辑

点击右上角即可分享
微信分享提示