09 2020 档案

摘要:转自:https://coladrill.github.io/2020/06/01/%E7%94%A8%E6%88%B7%E8%A1%8C%E4%B8%BA%E5%BA%8F%E5%88%97%E5%BB%BA%E6%A8%A1/ https://zhuanlan.zhihu.com/p/13813 阅读全文
posted @ 2020-09-30 16:45 chease 阅读(722) 评论(0) 推荐(0) 编辑
摘要:Focal loss 参考: https://zhuanlan.zhihu.com/p/49981234 目标 通过减少易分类样本的权重,从而使得模型在训练时更专注于难分类的样本。 公式 论文实验中γ=2,a=0.25的效果最好 阅读全文
posted @ 2020-09-24 17:55 chease 阅读(174) 评论(0) 推荐(0) 编辑
摘要:转自:https://zhuanlan.zhihu.com/p/29247151 1. 忘了数据规范化 What? 在使用神经网络的过程中,非常重要的一点是要考虑好怎样规范化(normalize)你的数据。 这一步不能马虎,不正确、仔细完成规范化的话,你的网络将会不能正常工作。 因为规范化数据这个重 阅读全文
posted @ 2020-09-21 20:01 chease 阅读(284) 评论(0) 推荐(0) 编辑
摘要:1、常用激活函数 Rectified Linear Unit(ReLU) - 用于隐层神经元输出 Sigmoid - 用于隐层神经元输出 Softmax - 用于多分类神经网络输出 Linear - 用于回归神经网络输出(或二分类问题) 常用激活函数介绍参考: https://blog.csdn.n 阅读全文
posted @ 2020-09-15 20:50 chease 阅读(189) 评论(0) 推荐(0) 编辑
摘要:叉乘(feature crosses): https://segmentfault.com/a/1190000014799038 、https://www.cnblogs.com/lightmare/p/10398788.html https://zhuanlan.zhihu.com/p/16435 阅读全文
posted @ 2020-09-07 20:03 chease 阅读(256) 评论(0) 推荐(0) 编辑
摘要:https://zhuanlan.zhihu.com/p/56882616 https://blog.csdn.net/ZesenChen/article/details/85057641 https://zhuanlan.zhihu.com/p/40464595 https://zhuanlan. 阅读全文
posted @ 2020-09-07 20:00 chease 阅读(104) 评论(0) 推荐(0) 编辑
摘要:转自: https://zhuanlan.zhihu.com/p/141622985 论文:《Enhanced LSTM for Natural Language Inference》 github: https://github.com/JasonForJoy/ESIM-NLI 、 https:/ 阅读全文
posted @ 2020-09-03 11:17 chease 阅读(544) 评论(0) 推荐(0) 编辑

点击右上角即可分享
微信分享提示