Principais destaques:
- O OpenAI lançou o ChatGPT Health, que permite conectar prontuários médicos e apps de bem-estar ao chatbot.
- Especialistas em segurança apontam falhas que podem expor dados sensíveis e contornar proteções da plataforma.
- O serviço não segue a HIPAA, o que amplia preocupações legais e de privacidade, sobretudo em temas sensíveis de saúde.
O lançamento do ChatGPT Health reacendeu um debate intenso sobre os limites da inteligência artificial no cuidado com informações médicas.
A novidade promete centralizar dados de saúde em um único ambiente conversacional, mas já enfrenta questionamentos de pesquisadores, advogados e entidades de defesa da privacidade.
Vulnerabilidade expõe riscos estruturais
Pesquisadores da Radware divulgaram uma falha batizada de ZombieAgent, capaz de contornar barreiras de segurança do ChatGPT.
Segundo os especialistas, o problema explora o sistema de memória do chatbot para extrair dados pessoais de forma gradual, sem interação direta do usuário.
A OpenAI informou ter corrigido vulnerabilidades anteriores, mas os pesquisadores afirmam que novos métodos continuam surgindo, revelando fragilidades recorrentes em plataformas de IA agêntica.
Integrações ampliam impacto potencial
O ChatGPT Health chega em um contexto de uso massivo: a empresa afirma que centenas de milhões de pessoas fazem perguntas sobre saúde à IA todas as semanas.
Para viabilizar o novo recurso, a OpenAI firmou parcerias que permitem conectar prontuários eletrônicos de milhões de prestadores de serviços nos EUA e aplicativos populares como Apple Health, MyFitnessPal e Weight Watchers.
Essa amplitude aumenta o valor do serviço, mas também eleva o risco em caso de falhas de segurança ou uso indevido das informações.
Privacidade, leis e limites da IA
Um dos pontos mais sensíveis é o fato de o ChatGPT Health não estar em conformidade com a HIPAA, já que a OpenAI atua como empresa de tecnologia para consumidores, e não como entidade de saúde regulada.
Isso significa que dados podem ser compartilhados em resposta a ordens judiciais, algo que preocupa especialmente em cenários de disputas legais sobre saúde reprodutiva e cuidados de afirmação de gênero.
Embora a empresa afirme que os dados ficam isolados e criptografados e não são usados para treinar modelos por padrão, a ausência de criptografia de ponta a ponta e incidentes passados reforçam o ceticismo de parte da comunidade médica e de segurança.







