Modelos de IA conseguem gerar código de ciberataques com taxa total de sucesso, aponta estudo

Renê Fraga
4 min de leitura

Principais destaques:

  • Pesquisadores mostraram que modelos populares de IA podem gerar exploits funcionais a partir de descrições públicas de falhas.
  • A técnica usada não depende de jailbreak, mas de engenharia social estruturada aplicada aos modelos.
  • O estudo indica que a barreira técnica para ataques cibernéticos praticamente deixou de existir.

Um novo estudo de pesquisadores da Universidade de Luxemburgo acendeu um alerta vermelho no setor de segurança digital.

Segundo a pesquisa, modelos de linguagem amplamente utilizados conseguem transformar descrições públicas de vulnerabilidades em código de ataque totalmente funcional, com taxa de sucesso de 100%.

O resultado foi obtido com ferramentas como OpenAI, Google, Anthropic, Microsoft e DeepSeek, usando apenas poucas rodadas de interação.

Na prática, isso significa que conhecimentos técnicos avançados, antes necessários para explorar falhas complexas, deixam de ser um requisito.

A IA assume o papel de “tradutor” entre descrições técnicas e ataques reais, acelerando drasticamente o ciclo entre a descoberta da falha e sua exploração.

Engenharia social substitui o jailbreak tradicional

O ponto central da pesquisa é uma metodologia chamada RSA, sigla para Role-assignment, Scenario-pretexting e Action-solicitation.

Em vez de forçar o modelo a burlar filtros de segurança, os pesquisadores conduzem a IA por um caminho aparentemente legítimo, atribuindo a ela o papel de pesquisador de segurança, contextualizando o cenário como um teste autorizado e, só então, solicitando o código.

Essa abordagem explora uma característica estrutural dos grandes modelos de linguagem: eles tratam todo prompt como uma instrução válida.

Segundo o National Cyber Security Centre, do Reino Unido, esse tipo de vulnerabilidade é inerente à arquitetura atual das IAs, o que torna sua eliminação completa praticamente impossível.

Odoo vira prova prática do risco

Para validar o método, o grupo escolheu o Odoo, um sistema de gestão empresarial usado por milhões de organizações no mundo.

Oito vulnerabilidades já documentadas foram exploradas com sucesso, resultando em roubo completo de bases de dados, elevação de privilégios e instalação de backdoors persistentes.

O mais preocupante é que os ataques gerados não exigiam entendimento prévio de conceitos como injeção SQL ou fluxos internos do sistema. A IA cuidava de toda a lógica, inclusive de processos autenticados, como login e gerenciamento de sessão.

Novatos já conseguem atacar sistemas reais

Em testes adicionais, três pessoas sem qualquer formação em cibersegurança conseguiram comprometer ambientes reais do Odoo usando apenas assistência de IA.

Em menos de dez interações, todas obtiveram acesso a dados sensíveis e realizaram extrações completas de bancos de dados.

Os pesquisadores afirmam que a distinção tradicional entre atacantes técnicos e não técnicos já não é mais válida.

Esse cenário se agrava quando se considera o ritmo lento de aplicação de correções: hoje, o intervalo médio entre a divulgação de um CVE e a implementação de um patch pode chegar a 150 dias, tempo mais do que suficiente para ataques automatizados em larga escala.

Relatórios recentes também apontam um aumento expressivo no uso ofensivo de IA em fóruns clandestinos, além de casos documentados de ataques coordenados com mínima supervisão humana.

Em regiões com menos recursos, como partes da África, centenas de instâncias vulneráveis seguem expostas, ampliando ainda mais o impacto potencial.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário