摘要: 对话中的情感识别任务在现实生活中应用领域广泛,因此受到了越来越多的关注。对话中的文本,既包含了说话人信息,又与前文联系紧密,所以其拥有独特的语序与结构特征。使用基于Transformer架构的预训练模型参与训练的情感对话识别研究,已经取得了优秀的结果,但是其中传统的微调分类方法无法充分考虑到对话文本的语序与结构特征,并且会导致情感对话任务与预训练任务不匹配。而提示学习,通过重建下游任务能够缩小与预训练任务的差距。由此提出了PERC Roberta模型,该模型首先通过文本掩码预测任务,学习对话的语序以及结构特征,然后通过提示学习重建下游任务,进一步激发模型中学习到的丰富对话知识。该模型在两个对话情感识别公共数据集MELD和EmoryNLP上进行的实验取得了良好的结果,消融实验的对比也证明了提出方法的有效性。我们的模型和数据集的处理过程代码在github仓库1公开。
中图分类号: