Nova Técnica de Poda Ortogonal Acelera 'Esquecimento' em Redes Neurais
Um novo artigo disponível no repositório arXiv, intitulado "Orthogonal Soft Pruning for Efficient Class Unlearning" (arXiv:2506.19891), propõe uma solução inovadora para este problema. Pesquisadores desenvolveram um framework de poda suave (soft pruning) baseado em regularização ortogonal de kernels convolucionais para alcançar um esquecimento rápido e preciso.
O método proposto opera impondo restrições de ortogonalidade durante o treinamento. Isso ajuda a descorrelacionar os filtros convolucionais e a desvincular as representações de características, ao mesmo tempo em que identifica eficientemente os canais específicos de cada classe por meio da análise da diferença de ativação. Essa abordagem facilita a identificação e supressão seletiva de filtros correlacionados a classes específicas, promovendo um esquecimento preciso sem comprometer a capacidade geral do modelo.
Avaliações extensivas em diversas arquiteturas e conjuntos de dados, incluindo CIFAR-10, CIFAR-100 e TinyImageNet, demonstraram a eficácia da técnica. O framework de poda ortogonal suave mostrou-se capaz de realizar o esquecimento completo das classes alvo com execução quase instantânea e perda mínima de acurácia nos dados retidos.
Os resultados indicam que a abordagem reduz substancialmente os riscos de ataques de inferência de associação (membership inference attacks) e acelera o processo de desaprendizado em ordens de magnitude quando comparada a baselines de ponta. Este framework oferece uma solução eficiente e prática para machine unlearning em tempo real, especialmente relevante para cenários de Machine Learning as a Service (MLaaS). A capacidade de remover dados de forma eficiente e manter a performance é crucial para a adaptabilidade e conformidade regulatória de modelos de IA em constante evolução.