Pesquisadores hackeiam ChatGPT com um único documento “envenenado”

Renê Fraga
3 min de leitura

🧠 Principais destaques:

  • Pesquisadores demonstraram que apenas um único documento “envenenado” pode explorar o ChatGPT e acessar dados privados conectados a serviços externos.
  • O ataque, chamado AgentFlayer, utiliza injeção de prompt indireta invisível para roubar informações como chaves de API.
  • Conectar o ChatGPT a plataformas como Google Drive ou GitHub pode abrir brechas de segurança se arquivos maliciosos forem adicionados.

Durante a conferência de segurança Black Hat, em Las Vegas, pesquisadores revelaram uma vulnerabilidade alarmante no ChatGPT quando ele está integrado a serviços externos.

A descoberta mostra que basta um único arquivo modificado de forma maliciosa para que invasores tenham acesso a dados privados — sem que a vítima perceba.

Com a possibilidade de conectar o ChatGPT a plataformas como Google Drive, GitHub e outras, a ferramenta se torna mais útil, mas também mais exposta.

Essa integração, pensada para facilitar o trabalho de usuários e desenvolvedores, pode acabar se transformando em um ponto de entrada para ataques sofisticados.

O ataque AgentFlayer e a injeção de prompt invisível

A técnica, batizada de AgentFlayer pelos pesquisadores Michael Bargury e Tamir Ishay Sharbat, explora um método chamado injeção de prompt indireta.

Neste caso, o arquivo “envenenado” contém instruções ocultas que o ChatGPT interpreta ao processar o conteúdo — mesmo que o usuário não as veja.

No experimento, um documento com uma imagem foi carregado no ChatGPT. Ao renderizar essa imagem, a IA executou automaticamente um comando invisível, enviando dados para o servidor controlado pelos pesquisadores.

Em segundos, informações sensíveis, como chaves de API, foram extraídas sem qualquer alerta para o usuário.

Um problema crescente na segurança de IA

Ataques como esse não são casos isolados. Outro estudo recente mostrou que é possível assumir o controle de uma casa inteligente ao explorar a IA Gemini usando um convite de calendário infectado.

Especialistas alertam que as ameaças aumentam conforme as IAs ganham mais acesso a contas e dados pessoais. O risco é agravado pelo fato de que o usuário não precisa executar nenhuma ação complexa: basta que o ChatGPT tenha acesso a um serviço externo e que um arquivo malicioso seja inserido na pasta.

Conexões úteis, mas perigosas

Conectar a IA a serviços como Google Drive ou GitHub traz grandes vantagens para quem desenvolve e integra sistemas, já que elimina a necessidade de migrar dados para outras plataformas.

Porém, como mostram esses testes, dar mais poder a uma IA significa também abrir novas portas para riscos cibernéticos.

O recado dos pesquisadores é claro: integrações devem vir acompanhadas de camadas extras de segurança, tanto no lado dos provedores quanto no dos usuários.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário