✨ Principais destaques:
- Modelos de linguagem usados em hospitais e clínicas têm mostrado viés ao minimizar sintomas de mulheres, pessoas negras e asiáticas.
- Pesquisas revelam que erros de linguagem, como digitar com pressa ou com pequenos desvios, aumentam as chances de pacientes receberem orientações inadequadas.
- Embora gigantes como Microsoft, Google e OpenAI afirmem estar trabalhando para corrigir os vieses, especialistas alertam: ainda há riscos sérios de perpetuar injustiças históricas na medicina.
O poder (e o perigo) da inteligência artificial na saúde
A inteligência artificial já faz parte da rotina de muitos hospitais ao redor do mundo.
Médicos utilizam modelos de linguagem (LLMs), como ChatGPT e Gemini, para elaborar resumos clínicos, interpretar dados e até sugerir diagnósticos.
Startups também oferecem ferramentas que transcrevem consultas automaticamente e organizam informações médicas.
A promessa é clara: reduzir a sobrecarga dos sistemas de saúde, acelerando processos e permitindo que os profissionais tenham mais tempo com os pacientes.
Mas, por trás dessa promessa, cresce uma preocupação: essas ferramentas podem estar reproduzindo preconceitos históricos da medicina e levando a decisões clínicas menos seguras e menos justas.
Sintomas minimizados e empatia desigual
Pesquisas recentes de universidades renomadas nos EUA e no Reino Unido apontam que grandes modelos de linguagem, como GPT-4 (OpenAI), Llama 3 (Meta) e até soluções de uso específico na saúde, subestimam sintomas de mulheres e mostram menos empatia com pacientes negros e asiáticos.
Exemplo grave: pacientes do sexo feminino foram, em muitos casos, direcionados a tratar sintomas em casa em vez de procurar atendimento médico.
Da mesma forma, respostas a pedidos de apoio em saúde mental demonstraram menor sensibilidade emocional quando o paciente era identificado como parte de minorias raciais.
Esses vieses têm raízes em dois fatores:
- Dados de treinamento: os LLMs são treinados majoritariamente em dados da internet, que já carregam preconceitos.
- Histórico da ciência médica: por décadas, pesquisas em saúde priorizaram os sintomas e padrões masculinos, relegando doenças femininas e condições específicas a menor investimento.
Quando os detalhes importam e pesam contra o paciente
As desigualdades não param em questões de raça e gênero.
Estudos do MIT revelaram que pessoas que escrevem com erros de digitação, linguagem informal ou insegura foram entre 7% e 9% mais desencorajadas a buscar cuidados médicos, mesmo quando descreviam exatamente os mesmos sintomas que outros pacientes.
Esse achado preocupa ainda mais quando pensamos em pessoas cuja língua materna não é o inglês ou em pacientes que não têm familiaridade com a tecnologia ou seja, justamente grupos que já enfrentam barreiras no sistema de saúde.
Existe solução? Caminhos possíveis contra os vieses
Apesar dos riscos, especialistas também enxergam um futuro promissor.
Projetos como o Foresight, no Reino Unido, ou o Delphi-2M, na Europa, tentam desenvolver IAs médicas baseadas em grandes bases de dados de saúde reais e mais diversificadas, em vez de informações extraídas da internet.
A ideia é refletir a diversidade real dos pacientes e tornar as respostas mais justas e seguras.
Gigantes como OpenAI, Google e Microsoft afirmam que estão investindo em correções, benchmarks médicos específicos e testes com especialistas clínicos para reduzir as falhas.
Porém, especialistas alertam: a pressa em lançar soluções não pode superar a responsabilidade de lidar com vieses que impactam vidas de forma direta.
No fim, a esperança é que a IA não apenas aumente a velocidade e eficiência do atendimento, mas sim ajude a corrigir lacunas históricas da medicina, garantindo um sistema de saúde realmente inclusivo.
