混合性对话:Towards Conversational Recommendation over Multi-Type Dialogs

混合型对话

传统的人机对话研究专注于单一类型的对话,并且往往预设用户一开始就清楚对话目标。但实际应用中,人机对话常常混合了多种类型,例如闲聊、任务导向对话、推荐对话、问答等,并且用户目标是未知的。在这样的混合型对话中,机器人需要主动自然地进行对话推荐。

“混合型对话”这个新颖的任务于2020年ACL由哈工大和百度合作提出,又称为多类型对话中的会话推荐 (conversational recommendation over multi-type dialogs)。区别于以往工作,这个任务的特点在于对话类型的多样性,以及推荐者的主动性 (proactivity)——机器人需要主动规划目标序列将非推荐对话引导到推荐对话。

图:多类型对话中的对话推荐示例。整个对话基于知识图谱,以及一个由机器人根据用户兴趣和话题转换的自然性规划的目标序列。每个目标指定一个对话类型和一个对话主题(一个实体)。图中不同的颜色表示不同的目标,下划线表示知识文本。

为了便于研究这个任务,作者创建了一个新的对话数据集 DuRecDial (recommendation oriented multi-type Chinese dialog dataset at Baidu)。 DuRecDial 中包含主题转换自然的多类型对话,存在丰富的交互多样性和对话轮次。并且,每个寻求者 (seeker) 都有一个明确的可更新的个人画像,用于模拟真实世界应用场景中的个性化推荐。

表:比较 DuRecDial 与推荐对话数据集和基于知识的对话数据集。“Rec.”代表推荐。

针对这个任务,作者提出了一个混合目标驱动的对话生成框架(multi-goal driven conversation generation framework, MGCG),由一个目标规划模块和一个目标引导响应模块组成。

  • 目标规划模块:进行对话管理,即根据用户兴趣和在线反馈确定某个推荐对象为最终目标,然后规划合适的短期目标来实现自然的主题转换。这种用于多类型对话建模的目标导向的对话策略机制是前人没有研究过的。

  • 响应模块:为达成每个目标进行响应生成,例如围绕某个主题闲聊、或向用户提出推荐。

MGCG 框架

目标规划模块

目标规划模块将上下文 X、目标历史 G={g0,,gt1}、知识图谱 K 和更新的 seeker 画像 Pi1sk作为输入,输出目标 gc

目标规划又分为两个子任务:

  • 目标完成估计:对于当前子任务,我们使用 CNN 来估计目标完成的概率,公式是:PGC(l=1|X,gt1)

  • 当前目标预测:如果 gt1 没有完成(PGC < 0.5),则 gc=gt1。否则,我们使用基于 CNN 的多任务分类来预测当前目标,通过最大化以下概率来实现:

gt=argmaxgty,gtpPGP(gty,gtpX,G,Pisk,K),gc=gt,

其中 gty 是候选对话类型,gtp 是候选对话主题。

响应模块

响应模块基于上下文 X、目标 gc 和知识图谱 K, 产生响应来完成每个目标。响应模块的实现改进自Wu et al. (2019)提出的两种模型:检索和生成模型。

基于检索的响应模型

检索模型通过从数据库中检索候选响应、并排序筛选出最佳响应Y来回应上下文,如图(b)所示,响应排序器由五个组件组成:上下文-响应表示模块(C-R编码器)、知识表示模块(知识编码器)、目标表示模块(目标编码器)、知识选择模块(知识选择器)和匹配模块(匹配器)。

C-R编码器与BERT具有相同的架构,它将上下文X和候选响应Y作为BERT中的segment_a和segment_b,并利用堆叠的自注意力来生成X和Y的联合表示,记为 xy

知识编码器将每个相关知识 knowledgei 使用双向GRU编码为向量,记为 ki=[hTk;h0]

目标编码器使用双向GRU编码对话类型和对话主题作为目标表示,记为gc

知识选择器用上下文-响应表示xy对所有知识向量 ki 进行注意力分配,并得到注意力分布:

p(kix,y,gc)=exp(MLP([xy;gc])ki)jexp(MLP([xy;gc])kj)

将所有相关的知识信息融合成一个向量 kc=ip(kix,y,gc)ki

kcgcxy 视为来自知识源、目标源和对话源的信息,将这三个信息源拼接成一个向量。最后,计算每个Y的匹配概率:

p(l=1X,Y,K,gc)=softmax(MLP([xy;kc;gc]))

图:基于检索的响应模型

基于生成的响应模型

如图3(c)所示,生成器由五个组件组成:上下文编码器、知识编码器、目标编码器、知识选择器和解码器。

前三个组件和基于检索的响应模型几乎一样:给定上下文 X、对话目标 gc 和知识图谱 K,生成器使用基于双向 GRUs 的编码器将它们编码为向量。

知识选择器通过最小化先验分布 p(kix,gc) 和后验分布 p(kix,y,gc) 之间的KLDivLoss,来学习知识选择策略。这个方法基于一个假设,即使用正确的响应将有助于知识选择,因此预测阶段的知识选择应该接近于使用正确响应的知识选择的效果。

p(kix,y,gc)=exp(kiMLP([x;y;gc]))j=1Nexp(kjMLP([x;y;gc]))p(kix,gc)=exp(kiMLP([x;gc])j=1Nexp(kjMLP([x;gc])LKL(θ)=1Ni=1Np(kix,y,gc)logp(kix,y,gc)p(kix,gc)

在训练过程中,与基于检索的方法相同,将所有相关的知识信息融合成一个向量 kc=ip(ki|x,y,gc)ki,然后将其喂给解码器进行响应生成。在测试过程中,没有真实响应,融合的知识由 kc=ip(ki|x,gc)ki 估计。

解码器采用Yao et al. (2017)提出的分层门控融合单元 (Hierarchical Gated Fusion Unit)实现,这是一个标准的用外部知识门增强的GRU解码器。

除了LKL(θ)损失外,生成器还用到两个损失。

NLL损失:计算真实响应的负对数似然(LNLL(θ))

BOW (bag-of-words)损失:使用Zhao et al.(2017)提出的 BOW 损失,通过强调知识和真实响应之间的相关性来确保融合知识kc的准确性。具体而言,令w=MLP(kc)R|V|,其中|V|是词汇表大小。我们定义:

p(ytkc)=exp(wyt)v=1Vexp(wv)

然后,BOW 损失被定义为最小化:

LBOW(θ)=1mt=1mlogp(ytkc)

最后,作者最小化以下损失函数:

L(θ)=αLKL(θ)+αLNLL(θ)+LBOW(θ)

其中α是可训练参数。

图:基于生成的响应模型

作者用MGCG_R表示具有自动目标规划和基于检索的响应模型的系统,MGCG_G表示具有自动目标规划和基于生成的响应模型的系统。

posted @   鸽鸽的书房  阅读(128)  评论(0编辑  收藏  举报
相关博文:
阅读排行:
· 震惊!C++程序真的从main开始吗?99%的程序员都答错了
· winform 绘制太阳,地球,月球 运作规律
· 【硬核科普】Trae如何「偷看」你的代码?零基础破解AI编程运行原理
· 上周热点回顾(3.3-3.9)
· 超详细:普通电脑也行Windows部署deepseek R1训练数据并当服务器共享给他人
点击右上角即可分享
微信分享提示