论文介绍
基于基础的对话模型生成基于某些概念的响应。受限于基础对话数据的分布,基于此类数据训练的模型在数据分布和基础概念类型方面面临可转移性挑战。为了应对这些挑战,我们提出了基于基础的最小编辑框架,该框架将基于给定概念对现有响应进行最小编辑。专注于人物角色,我们提出了Grounded Minimal Editor(GME),它通过解开和重组人物角色相关和人物角色不可知的部分来学习编辑。为了评估基于角色的最小编辑,我们提出了PersonaMinEdit数据集,实验结果表明GME在很大程度上优于竞争基准。为了评估可转移性,我们在BlendedKillTalk的测试集上进行了实验,并表明GME可以编辑对话模型的响应,以在保持知识和同理心的使用的同时大大提高其角色一致性。
论文地址
https://arxiv.org/abs/2109.07713