Principais destaques:
- O ChatGPT responde por mais de 71% das exposições de dados corporativos ligadas à IA, mesmo com menos da metade do uso total.
- A maior parte dos vazamentos ocorre em contas gratuitas ou pessoais, fora do controle das empresas.
- Especialistas defendem governança inteligente e não o bloqueio total de ferramentas de IA.
Um novo levantamento acende um alerta importante para empresas que já incorporaram a inteligência artificial aos seus fluxos de trabalho.
De acordo com um estudo da Harmonic Security, o ChatGPT, da OpenAI, está associado a mais de 71% das exposições potenciais de dados corporativos, apesar de representar apenas 43,9% do volume total de prompts analisados.
A pesquisa avaliou 22,4 milhões de interações com ferramentas de IA ao longo de 2025 e concluiu que apenas seis aplicações concentram 92,6% de todo o risco de exposição.
Para os especialistas, isso mostra que o problema não está na IA generativa como um todo, mas na forma como algumas plataformas específicas são usadas dentro das organizações.
Dados sensíveis enviados sem controle
Entre os prompts analisados, cerca de 579 mil continham informações sensíveis das empresas, o equivalente a 2,6% do total.
O conteúdo mais frequentemente exposto incluiu código-fonte, documentos jurídicos, dados sobre fusões e aquisições, projeções financeiras e informações de investimentos. Também apareceram chaves de acesso, dados pessoais e detalhes de pipelines de vendas.
Outras ferramentas também apresentaram risco acima do esperado em relação ao seu uso, como o Microsoft Copilot e o Google Gemini, ainda que em uma escala bem menor que o ChatGPT.
O relatório também chama atenção para prompts enviados a plataformas sediadas na China, como DeepSeek e Kimi Moonshot, onde as regras de governança e supervisão de dados são menos claras.
Contas gratuitas são o elo mais fraco
Um dos pontos mais críticos do estudo envolve o uso de contas gratuitas e pessoais.
Segundo a Harmonic, 87% das interações classificadas como sensíveis no ChatGPT ocorreram nesse tipo de conta, geralmente acessada com credenciais individuais.
Nessas situações, as empresas não têm visibilidade, trilhas de auditoria nem garantias de que os dados não serão usados para treinar modelos públicos.
No total, 17% de todas as exposições de dados ocorreram fora dos ambientes corporativos controlados. Outras plataformas também apareceram na lista de incidentes sensíveis, como Claude e Perplexity, mas em volumes significativamente menores.
Governança inteligente em vez de bloqueio
Para Alistair Paterson, CEO da Harmonic Security, proibir o uso de IA não é o caminho. Segundo ele, funcionários sempre encontram formas de contornar bloqueios, enquanto as empresas perdem ganhos reais de produtividade.
A recomendação é adotar uma estratégia de habilitação com supervisão, oferecendo ferramentas aprovadas e aplicando controles que levem em conta o contexto e o nível de risco de cada ação.
O relatório destaca ainda que, além das principais plataformas, mais de 660 ferramentas de IA diferentes estão em uso ativo nas empresas, criando um desafio adicional de governança.
A conclusão é direta: não é possível alcançar segurança em IA apenas com restrições. É preciso visibilidade, entendimento e barreiras inteligentes para reduzir riscos sem travar a inovação.







