Principais destaques:
- Pesquisadores identificaram quase 200 aplicativos de IA no iOS com falhas graves que expõem dados sensíveis.
- Conversas completas, e-mails e identificadores de usuários ficaram acessíveis por configurações inseguras na nuvem.
- O caso levanta dúvidas sobre a eficácia da revisão da Apple na App Store diante da explosão de apps de IA.
O crescimento acelerado de aplicativos com inteligência artificial no iPhone trouxe conveniência, mas também riscos.
Uma nova investigação de segurança revelou que dezenas desses apps foram lançados com proteção insuficiente, permitindo o vazamento de informações pessoais de milhões de usuários.
O episódio reforça o debate sobre privacidade em um mercado cada vez mais pressionado pela corrida da IA.
Pesquisa expõe falhas em larga escala
A descoberta faz parte do projeto Firehound, conduzido pelo laboratório de segurança CovertLabs.
A iniciativa analisou aplicativos disponíveis no iOS e encontrou 198 apps com dados acessíveis publicamente, sendo que 196 deles expunham informações ativamente.
O alerta ganhou visibilidade após ser divulgado pela comunidade de cibersegurança vxunderground, que classificou o fenômeno como uma espécie de slopocalypse, termo usado para descrever aplicativos de IA criados às pressas, com foco em velocidade e não em segurança.
Conversas privadas e dados pessoais em risco
Entre os casos mais graves está um popular chatbot de IA que deixou expostos centenas de milhões de registros.
Segundo o pesquisador Harrris0n, responsável por manter o repositório do Firehound, os vazamentos incluíam históricos completos de conversas com a IA, além de nomes, e-mails e datas de criação de contas.
Outros aplicativos analisados apresentaram problemas semelhantes, expondo tokens de acesso, identificadores de usuário e conteúdos de chats.
As falhas não se limitaram a um único tipo de app e atingiram áreas como educação, saúde, produtividade, entretenimento e redes sociais.
Pressão sobre a Apple e cuidados para usuários
O caso reacende questionamentos sobre o processo de aprovação da App Store, frequentemente citado pela Apple como um diferencial de segurança do iOS.
Embora a empresa tenha atualizado suas diretrizes recentemente para exigir mais transparência no uso de dados por sistemas de IA, a pesquisa indica que a aplicação prática dessas regras ainda enfrenta desafios.
O projeto Firehound segue um modelo de divulgação responsável, restringindo o acesso a detalhes sensíveis e oferecendo suporte a desenvolvedores que desejam corrigir falhas.
Para usuários, especialistas recomendam interromper o uso de apps afetados e redobrar a cautela ao compartilhar informações pessoais com chatbots de IA pouco conhecidos.
