Principais destaques:
- Pessoas exploram mais parceiros de IA do que humanos, especialmente quando a IA recebe um rótulo feminino.
- Expectativas de cooperação variam conforme o gênero atribuído à IA, reproduzindo vieses sociais humanos.
- Especialistas alertam que humanizar a IA sem cuidado pode reforçar discriminações já existentes.
Um novo estudo publicado pela revista científica iScience mostra que vieses de gênero não ficam restritos às relações humanas. Eles também influenciam a forma como interagimos com sistemas de inteligência artificial.
A pesquisa indica que pessoas são mais propensas a explorar algoritmos de IA quando eles são apresentados como femininos, não binários ou sem gênero definido, em comparação com IAs rotuladas como masculinas.
A análise foi divulgada pelo site Live Science e reforça um alerta importante para quem desenvolve tecnologias baseadas em interação social entre humanos e máquinas.
O experimento que revelou o viés
Os pesquisadores utilizaram um clássico experimento da teoria dos jogos conhecido como Dilema do Prisioneiro. Nele, dois participantes precisam decidir se cooperam entre si ou agem de forma individualista.
A cooperação mútua gera o melhor resultado coletivo, mas existe um incentivo claro para que um dos lados explore o outro caso acredite que o parceiro irá cooperar.
Durante o estudo, os participantes jogaram com parceiros humanos ou com IAs, que recebiam diferentes rótulos de gênero. O resultado foi direto: as pessoas foram cerca de 10% mais propensas a explorar uma IA do que um ser humano, especialmente quando a IA não era identificada como masculina.
Confiança, expectativa e discriminação
Um dos achados mais curiosos é que participantes esperavam maior cooperação de agentes femininos, não binários ou sem gênero.
Justamente por isso, sentiam-se mais confortáveis em agir de forma oportunista. Já agentes masculinos eram vistos como menos confiáveis, o que reduzia a cooperação inicial.
Entre as mulheres participantes, surgiu um efeito ainda mais claro de afinidade: elas cooperaram mais com agentes identificados como femininos do que com masculinos.
Esse comportamento, conhecido como homofilia, já é bem documentado em interações humanas e agora aparece também nas relações com máquinas.
Os riscos de humanizar demais a IA
O estudo chama atenção para um ponto sensível no design de sistemas inteligentes.
Cada vez mais, assistentes virtuais, chatbots e agentes automatizados recebem nomes, vozes e identidades humanas para gerar empatia e engajamento. O problema é que, ao fazer isso sem critério, os sistemas acabam herdando preconceitos profundamente enraizados na sociedade.
Segundo os pesquisadores, mesmo que discriminar uma IA não pareça grave à primeira vista, esse tipo de comportamento pode reforçar hábitos prejudiciais e normalizar atitudes discriminatórias que depois se refletem nas relações entre pessoas reais.
Com a expansão de tecnologias como carros autônomos, assistentes pessoais e sistemas de gestão baseados em IA, a cooperação entre humanos e máquinas será cada vez mais comum. Entender como gênero, confiança e expectativa influenciam essas interações é essencial para criar sistemas mais justos, confiáveis e alinhados a valores sociais como equidade e justiça.







