该文被密码保护。 阅读全文
posted @ 2022-05-04 22:45 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-04 22:18 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-04 21:32 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-04 19:46 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-04 17:42 blcblc 阅读(0) 评论(0) 推荐(0) 编辑
该文被密码保护。 阅读全文
posted @ 2022-05-04 00:40 blcblc 阅读(1) 评论(0) 推荐(0) 编辑
摘要: 参考这篇文章: https://blog.csdn.net/cxkyxx/article/details/108455805 我的理解:focal loss不是解决样本不平衡的问题,是解决hard/easy样本的问题。 平衡交叉熵 focal loss 样本平衡focal loss 阅读全文
posted @ 2022-05-04 00:39 blcblc 阅读(141) 评论(0) 推荐(0) 编辑
摘要: https://zhuanlan.zhihu.com/p/166469248 双塔模型是应用非常普遍的深度学习召回模型,但是其本身也存在一些问题,比如使用softmax函数计算后验概率会带来采样偏差,popular item在负采样时出现的频率也会比较高等。 而Google2019年提出的双塔模型则 阅读全文
posted @ 2022-05-04 00:33 blcblc 阅读(2148) 评论(0) 推荐(0) 编辑