🧠 Principais destaques:
- Pesquisadores demonstraram que apenas um único documento “envenenado” pode explorar o ChatGPT e acessar dados privados conectados a serviços externos.
- O ataque, chamado AgentFlayer, utiliza injeção de prompt indireta invisível para roubar informações como chaves de API.
- Conectar o ChatGPT a plataformas como Google Drive ou GitHub pode abrir brechas de segurança se arquivos maliciosos forem adicionados.
Durante a conferência de segurança Black Hat, em Las Vegas, pesquisadores revelaram uma vulnerabilidade alarmante no ChatGPT quando ele está integrado a serviços externos.
A descoberta mostra que basta um único arquivo modificado de forma maliciosa para que invasores tenham acesso a dados privados — sem que a vítima perceba.
Com a possibilidade de conectar o ChatGPT a plataformas como Google Drive, GitHub e outras, a ferramenta se torna mais útil, mas também mais exposta.
Essa integração, pensada para facilitar o trabalho de usuários e desenvolvedores, pode acabar se transformando em um ponto de entrada para ataques sofisticados.
O ataque AgentFlayer e a injeção de prompt invisível
A técnica, batizada de AgentFlayer pelos pesquisadores Michael Bargury e Tamir Ishay Sharbat, explora um método chamado injeção de prompt indireta.
Neste caso, o arquivo “envenenado” contém instruções ocultas que o ChatGPT interpreta ao processar o conteúdo — mesmo que o usuário não as veja.
No experimento, um documento com uma imagem foi carregado no ChatGPT. Ao renderizar essa imagem, a IA executou automaticamente um comando invisível, enviando dados para o servidor controlado pelos pesquisadores.
Em segundos, informações sensíveis, como chaves de API, foram extraídas sem qualquer alerta para o usuário.
Um problema crescente na segurança de IA
Ataques como esse não são casos isolados. Outro estudo recente mostrou que é possível assumir o controle de uma casa inteligente ao explorar a IA Gemini usando um convite de calendário infectado.
Especialistas alertam que as ameaças aumentam conforme as IAs ganham mais acesso a contas e dados pessoais. O risco é agravado pelo fato de que o usuário não precisa executar nenhuma ação complexa: basta que o ChatGPT tenha acesso a um serviço externo e que um arquivo malicioso seja inserido na pasta.
Conexões úteis, mas perigosas
Conectar a IA a serviços como Google Drive ou GitHub traz grandes vantagens para quem desenvolve e integra sistemas, já que elimina a necessidade de migrar dados para outras plataformas.
Porém, como mostram esses testes, dar mais poder a uma IA significa também abrir novas portas para riscos cibernéticos.
O recado dos pesquisadores é claro: integrações devem vir acompanhadas de camadas extras de segurança, tanto no lado dos provedores quanto no dos usuários.
