本文介绍一篇2020EMNLP-findings上的论文《Consistent Response Generation with Controlled Specificity》,介绍在对话生成中控制回复的specificity。
所谓specificity,我把它翻译成“具体的程度”,举个例子,我跟机器说:“今天天真冷”,机器可以以三种不同的specificity回答我:
- 是的
- 确实挺冷的
哎呀 心疼 喝热水,多穿 快回 外面冷,你忙 好梦 早点睡,早安 晚安 睡了没,确实冷,多喝热水注意保暖别着凉了
谁不想要一个像第3种这么贴心的聊天机器人呢?(
这篇论文其实是作者发表在2019ACL workshop上的工作《Relevant and Informative Response Generation using Pointwise Mutual Information》的延续,这篇论文提出了一个叫做Positive Pointwise Mutual Information(PPMI)的东西,首先使用PPMI给训练集中的每个word打分,找出keywords,设计了一个loss,鼓励模型生成属于keywords的单词,做法和下面要介绍的论文大同小异。
PPMI的定义如下,PX(x)为单词x出现在上句X=x1,x2,…,x|X|中的概率,PY(y)为单词y出现在回复Y=y1,y2,…,y|Y|中的概率,P(x,y)是单词x和y同时分别出现在一对(X,Y)中的概率,这些概率P都可以通过对训练集预先的统计得到。由此可以得到PPMI矩阵,PPMI[x][y]就是PPMI(x, y)的值,预先存储好以供后面模型使用。
作者进一步提出一条数据的MaxPMI,定义如下
通过min-max normalization将每条数据的MaxPMI分数归一化
模型的整体架构如下
首先对于一条数据(X,Y),使用GRU将utterance X编码为一个向量h_{GRU},然后把这条数据的MaxPMI分数丢到一个多层全连接网络里(MLP)输出一个vector h_s,接着把整个词表V上的每一个单词v和utterance X中所有的单词x求PPMI分数之和,得到一个长度和词表大小|V|一样的vector v_f=[d_0,d_1,…,d_{|V|}],
然后,同样地把v_f丢到一个多层全连接网络中输出一个vector h_v,把得到的三个向量给concat起来得到h=[h_{GRU};h_s;h_v],把h作为decoder的初始状态,因此decoder应该可以利用PPMI所定义的词与词之间的共现关系,来学习如何生成更具体specific的回复。
为了直接地提升decoder输出更specific的单词的概率,作者还把v_f和decoder在每个timestep i输出的概率\pi_i通过加权的方式加在了一起得到
\lambda_i用于平衡二者,由decoder当前输出的隐状态h_i通过一层MLP得出
Inference阶段只需要手动定义MaxPMI的值s,就可以生成不同specificity程度的回复。同时作者还提出inference不手动提供值s的方法,可使用下式自动求出s_{max}的值,V是整个词表,X是给出的问句
作者的实验在DailyDialog和Twitter(Japanese)上进行,对比的模型是SC-Seq2Seq,它出自ACL2018上的《Learning to Control the Specificity in Neural Response Generation》,同样是控制生成的,最大的区别可能在于本文用的是作者定义的PPMI,那篇也是作者定义了一个指标,并提前告诉decoder每个词的得分。
作者发现使用s_{max}的效果最好
作者也举了一个生成效果的例子,通过控制s的大小可以操控回复的specificity
有什么想法欢迎在评论区讨论,扫码关注加星标以第一时间获得推送文章~
v1.5.2