Image by Xavier Cee, from Unsplash
Novo Malware Utiliza GPT-4 Para Gerar Ataques Instantâneos
Pesquisadores de segurança encontraram evidências iniciais de malware que utiliza grandes modelos de linguagem (LLMs) para gerar ações maliciosas instantaneamente.
Está com pressa? Aqui estão os fatos rápidos:
- Pesquisadores encontraram malware usando LLMs para gerar código em tempo real.
- O malware apelidado de MalTerminal usou GPT-4 para construir ransomware e shells.
- Ferramentas antivírus tradicionais lutam para detectar código malicioso gerado em tempo real.
Os resultados foram apresentados na LABScon 2025 em uma palestra intitulada “Malware Habilitado por LLM na Natureza.”
De acordo com a SentinelLABS, “malwares ativados por LLM apresentam novos desafios para detecção e caça a ameaças, pois a lógica maliciosa pode ser gerada em tempo de execução, em vez de ser incorporada no código.”
Essas ameaças operam por meio de métodos baseados em execução, o que as torna impossíveis de serem detectadas por sistemas antivírus padrão, porque o código prejudicial não existe até o momento da execução.
A equipe identificou o que acreditam ser o primeiro caso desse tipo de malware, que eles batizaram de ‘MalTerminal’. O sistema baseado em Python usa a API GPT-4 da OpenAI para gerar ataques de ransomware e ataques de shell reverso.
Os pesquisadores documentaram ferramentas ofensivas adicionais, que incluíam injetores de vulnerabilidade e auxílios de phishing, para mostrar como os atacantes experimentam com LLMs.
“Aparentemente, um malware que descarrega sua funcionalidade maliciosa para um LLM que pode gerar código em tempo real parece ser o pesadelo de um engenheiro de detecção”, escreveram as pesquisadoras.
Outros casos incluem o ‘PromptLock’, que surgiu pela primeira vez como um ransomware baseado em IA em 2023, e o PROMPTSTEAL, um malware ligado ao grupo russo APT28. As pesquisadoras explicam que o PROMPTSTEAL incorporou 284 chaves de API do HuggingFace e usou LLMs para produzir comandos de sistema para roubo de arquivos.
Pesquisadores descobriram que, apesar de sua sofisticação, o malware habilitado para LLM deve incluir “chaves de API incorporadas e prompts”, deixando rastros que os defensores podem acompanhar. Eles escreveram: “Isso torna o malware habilitado para LLM algo curioso: uma ferramenta que é singularmente capaz, adaptável e ainda assim também frágil.”
Por enquanto, o uso de malware habilitado para LLM parece raro e principalmente experimental. Mas especialistas alertam que, à medida que os adversários refinam seus métodos, essas ferramentas podem se tornar uma séria ameaça à segurança cibernética.