Image by Philipp Katzenberger, from Unsplash
Sistema de IA Promete Defesa Inteligente contra Malware com Proteção de Privacidade
Pesquisadores desenvolveram um novo sistema para detectar e combater malware usando uma técnica chamada aprendizado federado (FL).
Com pressa? Aqui estão os fatos rápidos:
- Utiliza aprendizado federado para proteger a privacidade durante o treinamento de modelos.
- Testes de laboratório mostraram 96% de sucesso contra grandes ataques cibernéticos.
- A precisão no mundo real caiu para 59% com dados complexos.
Um grupo de pesquisadores desenvolveu um novo método para contrastar vírus de computador e ciberataques em grandes redes. Eles explicam que o sistema utiliza inteligência artificial e um método chamado “aprendizado federado” para deter ameaças mantendo os dados pessoais privados.
A ideia é combinar as forças das redes modernas, que possuem um “hub de controle” central, com uma IA que aprende de maneira segura e descentralizada. Em vez de coletar todos os dados do usuário em um único lugar, o sistema compartilha apenas as atualizações do modelo de IA.
“Nossa arquitetura minimiza os riscos à privacidade, garantindo que os dados brutos nunca deixem o dispositivo; apenas as atualizações do modelo são compartilhadas para agregação no nível global”, disse a equipe.
Nos primeiros testes de laboratório, o sistema se saiu muito bem. Ele conseguiu deter até 96% de grandes ataques cibernéticos, como botnets e ataques de Negação Distribuída de Serviço (DDoS). No entanto, quando testado em situações mais próximas da realidade, a precisão caiu para cerca de 59%. Os pesquisadores afirmam que isso mostra o quão complicadas podem ser as verdadeiras ameaças cibernéticas.
Ainda assim, o sistema trabalhou rapidamente, identificando ataques em menos de um segundo e auxiliando as redes a recuperar velocidades de 300 a 500 megabits por segundo. Ele também conseguiu gerenciar o pesado tráfego de dados sem desacelerar tudo.
A nova ferramenta é especialmente boa em identificar ataques óbvios e de alto impacto. Mas ainda tem dificuldades com os mais sutis, como quando hackers roubam secretamente informações ao longo do tempo. Para corrigir isso, os pesquisadores planejam treinar a IA com dados melhores e aprimorar a maneira como ela aprende padrões. Eles também querem adicionar ferramentas de privacidade mais fortes, como métodos seguros de compartilhamento de dados.