摘要: 现有的情感识别模型中,存在着单模态表示容易出现歧义、每个人表达情感方式不同以及忽略离散情感与连续情感的问题,针对这些问题,笔者提出元双模态学习(Meta Bi-modal Learning,MBL)模型,实现了单模态连续情感即效价度-激活度-控制度(Valence-Arousal-Dominance,V-A-D)辅助双模态离散情感进行识别,双模态特征融合是采用跨模态自注意力,有效地解决了模态序列数据需要对齐的问题。同时,在辅助任务训练过程中,通过多任务学习中硬参数共享方式,实现V-A-D三维度信息交互。并且学习模型将每个说话人语句作为小样本,提高了模型适应不同说话人的能力,使得模型更加具有泛化能力。实验表明,在语料库IEMOCAP的脚本和对话两组数据集上,MBL模型的情感识别率分别取得了71.24%和69.12%,表现出了良好的性能。
中图分类号: