MATER: Reconhecimento de Emoção na Fala com Representação Multimodal e Interpretável
Um artigo recente disponível no arquivo arXiv (arXiv:2506.19887) introduz o framework Multi-level Acoustic-Textual Emotion Representation (MATER), proposto como contribuição para o desafio Speech Emotion Recognition in Naturalistic Conditions (SERNC). O trabalho aborda o reconhecimento categórico de emoções e a predição de atributos emocionais na fala em condições do mundo real, que apresentam complexidades como variabilidade entre e dentro dos indivíduos. Para lidar com essas complexidades, o MATER emprega uma abordagem hierárquica inovadora que integra características acústicas e textuais em múltiplos níveis de representação: no nível da palavra, no nível da elocução e no nível de embedding. Essa fusão busca combinar pistas lexicais e acústicas de baixo nível com representações contextualizadas de alto nível. O objetivo é capturar efetivamente tanto as variações prosódicas finas quanto as nuances semânticas presentes na fala natural. Além da integração de características em múl...