09 2020 档案
摘要:转自:https://coladrill.github.io/2020/06/01/%E7%94%A8%E6%88%B7%E8%A1%8C%E4%B8%BA%E5%BA%8F%E5%88%97%E5%BB%BA%E6%A8%A1/ https://zhuanlan.zhihu.com/p/13813
阅读全文
摘要:Focal loss 参考: https://zhuanlan.zhihu.com/p/49981234 目标 通过减少易分类样本的权重,从而使得模型在训练时更专注于难分类的样本。 公式 论文实验中γ=2,a=0.25的效果最好
阅读全文
摘要:转自:https://zhuanlan.zhihu.com/p/29247151 1. 忘了数据规范化 What? 在使用神经网络的过程中,非常重要的一点是要考虑好怎样规范化(normalize)你的数据。 这一步不能马虎,不正确、仔细完成规范化的话,你的网络将会不能正常工作。 因为规范化数据这个重
阅读全文
摘要:1、常用激活函数 Rectified Linear Unit(ReLU) - 用于隐层神经元输出 Sigmoid - 用于隐层神经元输出 Softmax - 用于多分类神经网络输出 Linear - 用于回归神经网络输出(或二分类问题) 常用激活函数介绍参考: https://blog.csdn.n
阅读全文
摘要:叉乘(feature crosses): https://segmentfault.com/a/1190000014799038 、https://www.cnblogs.com/lightmare/p/10398788.html https://zhuanlan.zhihu.com/p/16435
阅读全文
摘要:https://zhuanlan.zhihu.com/p/56882616 https://blog.csdn.net/ZesenChen/article/details/85057641 https://zhuanlan.zhihu.com/p/40464595 https://zhuanlan.
阅读全文
摘要:转自: https://zhuanlan.zhihu.com/p/141622985 论文:《Enhanced LSTM for Natural Language Inference》 github: https://github.com/JasonForJoy/ESIM-NLI 、 https:/
阅读全文