该文被密码保护。 阅读全文
该文被密码保护。 阅读全文
该文被密码保护。 阅读全文
该文被密码保护。 阅读全文
该文被密码保护。 阅读全文
该文被密码保护。 阅读全文
摘要:
参考这篇文章: https://blog.csdn.net/cxkyxx/article/details/108455805 我的理解:focal loss不是解决样本不平衡的问题,是解决hard/easy样本的问题。 平衡交叉熵 focal loss 样本平衡focal loss 阅读全文
摘要:
https://zhuanlan.zhihu.com/p/166469248 双塔模型是应用非常普遍的深度学习召回模型,但是其本身也存在一些问题,比如使用softmax函数计算后验概率会带来采样偏差,popular item在负采样时出现的频率也会比较高等。 而Google2019年提出的双塔模型则 阅读全文