Postagens

Mostrando postagens com o rótulo Machine Learning

Emulação da Evolução de Halos de Matéria Escura com Modelos Generativos Gráficos

Um artigo recente disponível no arXiv, intitulado "Emulating Dark Matter Halo Merger Trees with Graph Generative Models" (arXiv:2507.10652), apresenta uma abordagem inovadora para a simulação da formação e evolução de estruturas no universo. O estudo, conduzido por Tri Nguyen, Chirag Modi, Siddharth Mishra-Sharma, L. Y. Aaron Yung e Rachel S. Somerville, propõe a utilização de modelos generativos gráficos para emular as árvores de fusão de halos de matéria escura. As árvores de fusão são ferramentas cruciais na astrofísica e cosmologia, pois rastreiam a montagem hierárquica de halos de matéria escura ao longo do tempo cósmico. Estes halos servem como estruturas fundamentais nas quais as galáxias se formam e evoluem, tornando as árvores de fusão um insumo essencial para modelos semi-analíticos de formação de galáxias. Tradicionalmente, a construção dessas árvores depende de suposições ad-hoc e muitas vezes não consegue incorporar informações ambientais relevantes, o que ...

Verificação Eficiente de Estratégias Suaves em Bandits e Teoria dos Jogos

O artigo "Protocols for Verifying Smooth Strategies in Bandits and Games" introduz uma nova abordagem para a verificação da otimalidade aproximada de estratégias no contexto de problemas de bandits multi-armados e jogos de forma normal. Os autores, Miranda Christ, Daniel Reichman e Jonathan Shafer, abordam o desafio de validar a eficiência de estratégias quando o número de ações disponíveis para cada jogador é significativamente grande. A pesquisa foca no desenvolvimento de protocolos que exigem um número sublinear de consultas a um oráculo de utilidade. Essa característica é crucial para cenários onde a obtenção de informações sobre cada ação é custosa. O trabalho demonstra que tal verificação é viável para estratégias "suaves" – aquelas que não concentram uma massa de probabilidade excessiva em qualquer ação específica. No domínio dos bandits multi-armados, o artigo apresenta protocolos para verificar se uma política suave é ε-ótima. Uma descoberta notável é...

Uma Teoria da Escalabilidade Computacional da Inferência em LLMs

Modelos de Linguagem Grandes (LLMs) demandam recursos computacionais, energéticos e financeiros substanciais tanto no treinamento quanto na implementação. Enquanto as leis de escalabilidade para treinamento guiaram grande parte do progresso recente na área, os custos de inferência representam agora um componente significativo e crescente do ônus geral de recursos, especialmente para modelos focados em raciocínio. Caracterizações existentes de otimalidade computacional que consideram tamanho do modelo, tamanho do conjunto de dados e tokens de inferência isoladamente ou em combinações fixas podem negligenciar pontos de operação mais eficientes. Neste contexto, foi introduzido o Directed Stochastic Skill Search (DS3), uma estrutura geral que representa a inferência como uma travessia estocástica sobre um grafo de habilidades aprendido. A partir de uma instanciação simplificada, mas expressiva, o DS3 permite derivar expressões de forma fechada para o sucesso da tarefa e o custo computac...

NeutroSENSE: Detecção de Intrusões em IoT com Lógica Neutrosófica e Abstenção Inteligente

Um novo trabalho de pesquisa intitulado "Deciding When Not to Decide: Indeterminacy-Aware Intrusion Detection with NeutroSENSE" propõe uma abordagem inovadora para a detecção de intrusões em ambientes de Internet das Coisas (IoT). O artigo, assinado por Eyhab Al-Masri, apresenta o NeutroSENSE, uma estrutura de ensemble aprimorada por lógica neutrosófica projetada para ser interpretável e eficaz na identificação de atividades maliciosas. O cerne do NeutroSENSE reside na integração de algoritmos de aprendizado de máquina populares, como Random Forest, XGBoost e Regressão Logística, com a lógica neutrosófica. Essa combinação permite que o sistema não apenas faça previsões sobre a natureza do tráfego de rede (malicioso ou benigno), mas também decomponha a confiança dessa previsão em três componentes: verdade (T), falsidade (F) e indeterminância (I). Essa quantificação da incerteza é um diferencial, pois fornece uma métrica clara (o componente I) para entender o quão incerta é ...

Métodos Estocásticos Aprimoram Modelagem de Prosódia em Síntese de Fala

Gerar prosódia expressiva para uma fala sintética continua sendo um desafio significativo na síntese de texto para fala (TTS), especialmente em sistemas que modelam explicitamente parâmetros como tom, energia e duração para maior interpretabilidade e controlabilidade. Embora métodos generativos tenham avançado rapidamente, capturar a variabilidade inerente à fala humana de forma controlável permanece uma tarefa complexa. Um estudo recente, detalhado no artigo "Investigating Stochastic Methods for Prosody Modeling in Speech Synthesis" disponível no arXiv (arXiv:2507.00227), investiga a eficácia de métodos estocásticos para esta tarefa. A pesquisa compara abordagens estocásticas, incluindo Normalizing Flows, Conditional Flow Matching e Rectified Flows, com uma linha de base determinística tradicional e realizações de fala humana real. As avaliações extensivas, tanto subjetivas quanto objetivas, demonstram que os métodos estocásticos são capazes de produzir prosódia natura...

Estratégias de Normalização de Dados para Deep Learning em EEG

A normalização de dados é um passo fundamental e frequentemente subestimado no pipeline de pré-processamento para aplicações de deep learning em Eletroencefalografia (EEG). Com a crescente adoção de paradigmas de pré-treinamento em larga escala, como a aprendizagem autossupervisionada (Self-Supervised Learning - SSL), a natureza das tarefas em deep learning de EEG está mudando, levantando novas questões sobre as estratégias de normalização mais eficazes para diferentes propósitos. Um estudo recente disponível no arquivo arXiv investigou sistematicamente o impacto da granularidade da normalização (nível de gravação vs. nível de janela) e do escopo (entre canais vs. dentro do canal) em tarefas de deep learning supervisionadas e autossupervisionadas. Para a avaliação, foram utilizadas tarefas supervisionadas de previsão de idade e gênero, bem como aprendizagem autossupervisionada via Contrastive Predictive Coding. A pesquisa utilizou dados de EEG de alta densidade em estado de repouso ...

Nova Técnica de Poda Ortogonal Acelera 'Esquecimento' em Redes Neurais

A necessidade de remover seletivamente o conhecimento de classes específicas em redes neurais pré-treinadas, impulsionada por regulamentações de privacidade como a GDPR e a LGPD no Brasil, apresenta um desafio significativo no campo de machine unlearning. Métodos existentes frequentemente enfrentam um dilema entre a velocidade do processo de "esquecimento" e a preservação da acurácia preditiva em dados não relacionados à classe removida, resultando em alto custo computacional ou degradação do desempenho. Um novo artigo disponível no repositório arXiv, intitulado "Orthogonal Soft Pruning for Efficient Class Unlearning" (arXiv:2506.19891), propõe uma solução inovadora para este problema. Pesquisadores desenvolveram um framework de poda suave (soft pruning) baseado em regularização ortogonal de kernels convolucionais para alcançar um esquecimento rápido e preciso. O método proposto opera impondo restrições de ortogonalidade durante o treinamento. Isso ajuda a des...

Novo Ataque com IA Expõe Vulnerabilidade em Detecção de Fraudes em Seguros de Saúde

A detecção de fraudes em sinistros de seguros representa um avanço crucial nos serviços de seguros modernos, proporcionando monitoramento inteligente e digitalizado para aprimorar a gestão e prevenir atividades fraudulentas. Essa capacidade é fundamental para garantir a segurança e a eficiência dos sistemas de seguros. Atualmente, algoritmos de inteligência artificial (IA) e aprendizado de máquina (ML) demonstram forte desempenho na identificação de sinistros fraudulentos. No entanto, a ausência de mecanismos de defesa padronizados torna os sistemas atuais suscetíveis a ameaças adversárias emergentes. Nesse contexto, uma pesquisa recente propõe um método de ataque baseado em Redes Generativas Adversariais (GANs) para realizar ataques adversários em sistemas de detecção de fraudes. Os resultados da pesquisa indicam que um atacante, mesmo sem conhecimento dos dados de treinamento ou dos detalhes internos do modelo de detecção, pode gerar casos fraudulentos que são classificados com...

Aprendizagem Incremental Multimodal com Modelos Pré-Treinados e Fusão Adaptativa

Um recente artigo disponível no repositório arXiv, intitulado "Leveraging Pre-Trained Models for Multimodal Class-Incremental Learning under Adaptive Fusion" (arXiv:2506.09999), apresenta um novo método para a Aprendizagem Incremental de Classes Multimodais (MCIL). Ao contrário das abordagens tradicionais que frequentemente se limitam às modalidades de visão e texto, este trabalho explora a MCIL abrangendo visão, áudio e texto simultaneamente. O principal desafio abordado é a integração eficaz de informações complementares dessas diferentes modalidades, enquanto se mitiga o problema do esquecimento catastrófico, comum em cenários de aprendizagem incremental. Para superar essas dificuldades, os autores propõem um método MCIL inovador baseado no uso de modelos multimodais pré-treinados. A arquitetura proposta inclui vários componentes-chave. Primeiramente, um Extrator de Características Incremental Multimodal (MIFE), baseado na estrutura Mixture-of-Experts (MoE), é introduzi...

Modelagem de Perda de Transmissão de Infra-som com Deep Learning

Um novo estudo propõe a aplicação de métodos de deep learning para aprimorar a modelagem da perda de transmissão (TL) de infra-som na atmosfera média. Essa modelagem é crucial para avaliar a eficácia da rede global do Sistema Internacional de Monitoramento (IMS) de infra-som. Atualmente, ferramentas de propagação como o método da equação parabólica (PE) permitem uma modelagem detalhada das perdas de transmissão. No entanto, o alto custo computacional do método PE limita sua aplicação na exploração de um vasto espaço de parâmetros, essencial para operações de monitoramento. Uma abordagem anterior, explorada por Brissaud et al. em 2023, utilizou redes neurais convolucionais treinadas com campos de onda simulados regionalmente (< 1000 km da fonte) para prever perdas de transmissão de forma mais rápida. Contudo, essa metodologia enfrentou desafios, especialmente em altas frequências e sob condições de vento iniciais desfavoráveis, além de questões de causalidade onde ventos distantes...

IA e Topologia Preveem Ratings de Crédito Bancário com Nova Rede Neural

Um estudo recente explorou a aplicação de técnicas avançadas de inteligência artificial e análise topológica para aprimorar a previsão de ratings de crédito bancário. O artigo, intitulado "Prediction of Bank Credit Ratings using Heterogeneous Topological Graph Neural Networks" (arXiv:2506.06293), propõe um novo modelo chamado Heterogeneous Topological Graph Neural Network (HTGNN) para enfrentar os desafios inerentes à previsão precisa e oportuna dessas classificações cruciais para a estabilidade econômica. Agências como Standard & Poor's e Moody's fornecem ratings de crédito que influenciam significativamente a tomada de decisões por diversas partes interessadas no mercado financeiro. No entanto, a aplicação direta de Redes Neurais Gráficas (GNNs), que são eficazes na alavancagem de informações de rede, é frequentemente complicada pela indisponibilidade de um grafo completo de conexões interbancárias, muitas vezes devido a preocupações com privacidade. Para ...

Otimização de Modelos de Machine Learning: Quantização Pós-Treinamento e Além

A área de Machine Learning tem presenciado um avanço significativo impulsionado por modelos cada vez maiores e mais complexos, capazes de realizar tarefas sofisticadas. No entanto, o tamanho e a complexidade desses modelos frequentemente resultam em altos custos computacionais e de memória, dificultando sua implantação em dispositivos com recursos limitados ou em larga escala. Para contornar esses desafios, pesquisadores e engenheiros exploram diversas técnicas de otimização de modelos. Uma abordagem proeminente é a Quantização Pós-Treinamento (PTQ - Post-Training Quantization). Essa técnica consiste em converter um modelo de machine learning já treinado, que geralmente utiliza representações de ponto flutuante de alta precisão (como FP32), para uma representação de menor precisão, como inteiros de 8 bits (INT8), sem a necessidade de retreinar o modelo do zero. O principal benefício da PTQ é a redução significativa no tamanho do modelo e no custo computacional durante a inferência, ...

Nova Abordagem Data-Driven Explica Deepfakes de Áudio

Uma nova pesquisa aborda o desafio de explicar por que modelos de detecção identificam áudios como falsos (deepfakes). Avaliar técnicas de explicabilidade, como SHAP e LRP, no contexto da detecção de deepfake de áudio é difícil devido à falta de anotações de verdade fundamental claras. Mesmo quando a verdade fundamental está disponível, esses métodos tradicionais frequentemente falham em fornecer explicações precisas. Para superar essa limitação, pesquisadores propuseram uma abordagem inovadora baseada em dados para identificar regiões com artefatos em áudios deepfake. O método utiliza pares de áudios reais e "vocoded" (sintetizados por vocoder), considerando a diferença em sua representação tempo-frequência como a verdade fundamental para a explicação. Essa representação é tipicamente um espectrograma log-magnitude, e a diferença entre o áudio falso (spoof) e o áudio real (bona fide) correspondente é usada para destacar as regiões de artefato. Para obter regiões significa...