TransH 学习笔记

TransH

paper : Knowledge Graph Embedding by Translating on Hyperplanes

论文

What is TransH ?

这篇文章是由中山大学与微软研究院联合发表的工作,文章主要解决了 TransE 模型不能很好的解决 1-n 、 n-1 、 n-n 这种关系的问题。 TransH 中的 H 是指 hyperspace (超平面)。

Method

文章继续沿用了 TransE 中的一些方法,将 头实体 h 和 尾实体 t 依旧用一个向量表示。关系 r 用两个向量表示,与 TransE 不同的是,TransH 将头尾实体向量投影到关系向量 r 所在的超平面 hyperspace 中,如下图所示。

image

头尾实体的投影操作如下:

其中 wr 为 normal vector ,它的二范数 = 1,用于头尾实体的投影。

dr 为关系 r 的embedding,用于计算得分。

(疑问) 原文说通过限制 ‖wr‖2 = 1,可以轻松的得到投影公式,我不理解。

By restricting ‖wr‖2 = 1, it is easy to get :

image

然后用投影之后的头尾实体计算得分:

image

Loss function

TransH 对实体和关系的向量加了很多的约束,训练同样使用 随机梯度下降法 SGD。

image

negative sampling

TransH 是首次提出 unif 和 bern 采样方法的工作。原始的负采样方法是从实体集中随机抽取一个实体替换到 golden triplet 中生成负样本,但是这样做有可能会得到假阳(false negative)的负样本。对于这种情况,文章的解决策略是:对于 1-N 的关系,赋予更高的概率替换头实体,而对于 N-1 的关系,赋予更高的概率替换尾实体。

Experiments

论文的实验进行了链接预测、三元组分类和关系抽取三项实验。

image

image

image

summary

TransH 解决了 TransE 模型不能很好的解决 1-n 、 n-1 、 n-n 这种关系的问题,另外提出了新的采样方法,将翻译的操作由低维平面拓展到了超平面,也是非常有效的。

posted @ 2023-08-02 00:12  Blackwater3  阅读(163)  评论(0编辑  收藏  举报