NLP(四十七):损失函数

  1. 三元组损失 triplet loss

设计初衷:

让x与这个跟他同类的点距离更近,跟非同类的点距离更远。

d是距离,m的含义是,当x与x+的距离减去x与x-,如果小于-m时,对损失函数的贡献为0,

如果大于-m时,对损失的贡献大于0.

含义就是:当负例太简单时,不产生损失,这个损失的目标是,挑选困难样本进行分类。

这个损失函数的缺陷:

一个正例只能和一个负例进行对比。效率较低。

这个损失函数,算法如何求解?

 

2. InfoNCE损失

注意一点:

一个样本点u,一个正样本点和多个负样本点。而不是一个u,分子是u和多个正样本点的内积做exp。

如果对infonce改写,分子内积求和依然可以。但是从infonce的推导上不可以。

为什么?

3. hinge loss

t>0,是一个超参数。

当y<1/t时,l(y)大于0。说明该样本点贡献了损失。

当y>1/t时,l(y)等于0。说明该样本点没有贡献损失。

 

4. pairwise ranking loss

当两者不是同一个类的时候,如果两个的距离小于m,则贡献了损失,如果大于m则没有贡献损失。

可以从困难样本、简单样本角度来理解,只有困难样本才会拿去训练,简单样本不会拿去训练。

也可以从这个角度理解:当两个不属于同一类别,但是距离又比较近的时候,应该对其进行惩罚,让两者的距离变远。

上面两个式子,可以统一为下式,当y为1时,时positive pair。仅保留了前面那个距离。

当y为0时,仅保留了后面那个式子。

这个损失函数缺点是:每次仅考虑两个样本。

且m是超参数。

5. BPR算法,贝叶斯个性化排序(Bayesian Personalized Ranking, 以下简称BPR)

是用来做矩阵分解的,一般来说是评分矩阵,分解为W矩阵和H矩阵的乘法,求解W矩阵和H矩阵。

推荐系统遇上深度学习(二十)--贝叶斯个性化排序(BPR)算法原理及实战

posted @ 2023-07-16 18:10  jasonzhangxianrong  阅读(77)  评论(0编辑  收藏  举报