摘要:针对语音信号传统手工特征动态信息捕捉不足的问题,引入wav2vec 2.0模型提取语音信号中的长距离依赖关系,通过特征融合方式得到充分的情感特征表示。本文提取了语音信号中最具代表性的MFCC特征,并且用Wav2vec提取特征以弥补MFCC在动态信息捕捉上的不足。通过这种方式提取更为丰富和具有代表性的语音情感特征。通过交叉注意力机制的运用,将语音声学特征与上下文信息进行融合,获得更加全面和准确的特征表示。最终,通过Transformer网络,实现对情感状态的精准预测。通过在MELD和EEIDB数据集上进行大量实验,本文方法在加权F1-Score指标上分别达到了44.32%和65.50%,验证了其有效性和优越性。