Principais destaques:
- Vazamentos ligados ao uso de IA generativa dobraram e chegaram a uma média de 223 incidentes por mês em 2025.
- Quase metade dos usuários ainda acessa ferramentas de IA por contas pessoais fora do controle corporativo.
- A explosão no volume de prompts e no número de usuários está superando os modelos tradicionais de governança e segurança.
O uso inadequado de ferramentas de inteligência artificial dentro das empresas está criando um novo e preocupante cenário de risco.
Um relatório recente do Netskope Threat Labs aponta que os vazamentos de dados relacionados à IA generativa mais do que dobraram ao longo de 2025, alcançando uma média de 223 violações por mês.
O principal fator por trás desse crescimento é o uso de aplicações de IA fora dos ambientes corporativos monitorados.
O levantamento analisou o tráfego de milhões de usuários em serviços de nuvem entre outubro de 2024 e outubro de 2025 e revelou que, nas organizações mais expostas, o problema é ainda maior. Empresas do quartil superior chegaram a registrar cerca de 2.100 incidentes mensais ligados ao uso de IA, quase dez vezes acima da média geral.
A ascensão da chamada IA paralela
Mesmo com investimentos crescentes em plataformas corporativas de inteligência artificial, o relatório mostra que 47% dos usuários continuam recorrendo a contas pessoais para acessar ferramentas de IA generativa.
Esse comportamento, conhecido como IA paralela ou shadow AI, cria zonas cegas para as equipes de segurança e permite que informações sensíveis escapem dos controles internos.
O crescimento no uso dessas tecnologias é acelerado. Em apenas um ano, o número de usuários de IA generativa nas empresas aumentou 200%, enquanto o volume de prompts disparou 500%. A média mensal por organização saltou de cerca de 3.000 para 18.000 interações, ampliando significativamente a superfície de risco.
Dados sensíveis no centro das violações
Mais da metade das violações de políticas identificadas envolve o envio de dados regulamentados, como informações pessoais, financeiras e de saúde.
Também aparecem com frequência exposições de código-fonte, propriedade intelectual e até credenciais de acesso. Aplicativos pessoais de nuvem já estão presentes em 60% dos incidentes relacionados a ameaças internas, segundo o estudo.
Como resposta, as empresas têm adotado medidas mais restritivas. Atualmente, 90% das organizações bloqueiam ao menos uma aplicação de IA generativa, um aumento em relação aos 80% registrados no ano anterior. Ainda assim, o ritmo de adoção da tecnologia continua mais rápido do que a capacidade de controle.
Segurança tenta correr atrás da inovação
Para os pesquisadores, a IA generativa mudou completamente o jogo da cibersegurança. O relatório destaca que 98% das organizações já utilizam aplicações que incorporam recursos de IA, ampliando a complexidade dos ambientes digitais.
O avanço de sistemas de IA agêntica, capazes de executar ações autônomas em múltiplos sistemas, adiciona uma nova camada de desafio aos modelos tradicionais de confiança.
Diante desse cenário, as empresas estão reforçando o monitoramento, endurecendo controles de acesso e ampliando políticas de prevenção contra perda de dados. O alerta é claro: sem governança adequada, a promessa de produtividade da IA pode rapidamente se transformar em um vetor crítico de risco.







