Principais destaques:
- Pesquisadores confirmam que cibercriminosos já usam IA generativa para criar malware e campanhas de ataque.
- Erros típicos de código gerado por IA estão ajudando especialistas a identificar essas ameaças.
- Falta de governança no uso de IA amplia riscos tanto para empresas quanto para o submundo do crime digital.
Cibercriminosos estão adotando, de forma ativa, assistentes de programação baseados em inteligência artificial para desenvolver malware e automatizar golpes online.
A constatação é de pesquisadores da Unit 42, divisão de segurança da Palo Alto Networks, e indica uma mudança relevante na forma como ataques digitais são planejados e executados.
A prática vem sendo chamada de “hacking por intuição” ou “vibe hacking”. Em vez de escrever cada linha de código com precisão técnica, os atacantes descrevem o que desejam e deixam que a IA gere o resultado.
Isso acelera o processo e reduz a barreira de entrada para o cibercrime, mas também introduz falhas inesperadas.
IA acelera ataques, mas comete erros reveladores
Segundo os pesquisadores, há evidências claras do uso de modelos de linguagem em códigos maliciosos, incluindo marcas d’água de IA e chamadas diretas de API dentro do próprio malware. Em alguns casos, o código chega a perguntar ao modelo como escrever e-mails de engenharia social, algo impensável em ataques mais tradicionais.
Curiosamente, as mesmas limitações da IA que afetam softwares legítimos estão expondo os criminosos. A Unit 42 encontrou exemplos de ransomwares com erros básicos, como arquivos de resgate nomeados de forma incorreta, resultado de “alucinações” do modelo. Para especialistas, isso indica ataques feitos às pressas, com pouca validação humana.
O falso senso de segurança criado pelo código automático
Outro ponto de alerta é o chamado “teatro de segurança”. Modelos de IA geram trechos de código que parecem implementar técnicas avançadas de evasão, mas que, na prática, não funcionam no ambiente real. Em um dos casos analisados, o código apenas registrava o nome da técnica defensiva sem executá-la de fato.
Esse comportamento reforça um paradoxo. A IA torna o ataque mais rápido, mas também mais ruidoso e, às vezes, mais fácil de detectar. Ainda assim, o volume e a velocidade compensam essas falhas para muitos criminosos.
Framework SHIELD tenta impor limites ao uso de IA
Como resposta, a Unit 42 apresentou o framework SHIELD, um conjunto de princípios voltado a devolver controle e governança ao desenvolvimento assistido por IA. A proposta inclui separação clara de funções, validação rigorosa de entradas e saídas, supervisão humana e redução de privilégios dos sistemas automatizados.
O problema é que poucas organizações parecem preparadas. De acordo com os pesquisadores, apenas cerca de metade das empresas impõe algum limite ao uso de ferramentas de IA, e raríssimas monitoram de forma sistemática o que entra e sai desses sistemas.
Enquanto isso, no submundo digital, ferramentas maliciosas baseadas em IA já são vendidas abertamente em fóruns clandestinos, prometendo gerar phishing, fraudes e malware sob demanda. O cenário mostra que a corrida pela produtividade com IA também abriu uma nova frente de riscos que ainda está longe de ser totalmente compreendida.







