Estratégias de Normalização de Dados para Deep Learning em EEG
Um estudo recente disponível no arquivo arXiv investigou sistematicamente o impacto da granularidade da normalização (nível de gravação vs. nível de janela) e do escopo (entre canais vs. dentro do canal) em tarefas de deep learning supervisionadas e autossupervisionadas. Para a avaliação, foram utilizadas tarefas supervisionadas de previsão de idade e gênero, bem como aprendizagem autossupervisionada via Contrastive Predictive Coding. A pesquisa utilizou dados de EEG de alta densidade em estado de repouso de 2.836 indivíduos do conjunto de dados Healthy Brain Network.
Os resultados do estudo indicam que as estratégias de normalização ideais variam significativamente entre os paradigmas de treinamento. Especificamente, a normalização dentro do canal no nível da janela demonstrou o melhor desempenho em tarefas supervisionadas. Em contraste, a normalização mínima ou entre canais no nível da janela foi mais eficaz para a aprendizagem autossupervisionada (SSL).
Essas descobertas desafiam a premissa de que uma estratégia de normalização universal pode ser aplicada de forma eficaz em diferentes configurações de aprendizagem em EEG. Elas ressaltam a necessidade de escolher estratégias de normalização específicas para cada tarefa. O estudo oferece insights práticos valiosos para o desenvolvimento de pipelines robustos de deep learning em EEG, à medida que o campo avança em direção a modelos pré-treinados e de larga escala. Este trabalho contribui para uma melhor compreensão de como otimizar o pré-processamento de dados de EEG para maximizar o desempenho de modelos de deep learning em diversas aplicações.