Pessoas tendem a explorar mais IAs rotuladas como femininas, revela estudo

Renê Fraga
4 min de leitura

Principais destaques:

  • Pessoas exploram mais parceiros de IA do que humanos, especialmente quando a IA recebe um rótulo feminino.
  • Expectativas de cooperação variam conforme o gênero atribuído à IA, reproduzindo vieses sociais humanos.
  • Especialistas alertam que humanizar a IA sem cuidado pode reforçar discriminações já existentes.

Um novo estudo publicado pela revista científica iScience mostra que vieses de gênero não ficam restritos às relações humanas. Eles também influenciam a forma como interagimos com sistemas de inteligência artificial.

A pesquisa indica que pessoas são mais propensas a explorar algoritmos de IA quando eles são apresentados como femininos, não binários ou sem gênero definido, em comparação com IAs rotuladas como masculinas.

A análise foi divulgada pelo site Live Science e reforça um alerta importante para quem desenvolve tecnologias baseadas em interação social entre humanos e máquinas.

O experimento que revelou o viés

Os pesquisadores utilizaram um clássico experimento da teoria dos jogos conhecido como Dilema do Prisioneiro. Nele, dois participantes precisam decidir se cooperam entre si ou agem de forma individualista.

A cooperação mútua gera o melhor resultado coletivo, mas existe um incentivo claro para que um dos lados explore o outro caso acredite que o parceiro irá cooperar.

Durante o estudo, os participantes jogaram com parceiros humanos ou com IAs, que recebiam diferentes rótulos de gênero. O resultado foi direto: as pessoas foram cerca de 10% mais propensas a explorar uma IA do que um ser humano, especialmente quando a IA não era identificada como masculina.

Confiança, expectativa e discriminação

Um dos achados mais curiosos é que participantes esperavam maior cooperação de agentes femininos, não binários ou sem gênero.

Justamente por isso, sentiam-se mais confortáveis em agir de forma oportunista. Já agentes masculinos eram vistos como menos confiáveis, o que reduzia a cooperação inicial.

Entre as mulheres participantes, surgiu um efeito ainda mais claro de afinidade: elas cooperaram mais com agentes identificados como femininos do que com masculinos.

Esse comportamento, conhecido como homofilia, já é bem documentado em interações humanas e agora aparece também nas relações com máquinas.

Os riscos de humanizar demais a IA

O estudo chama atenção para um ponto sensível no design de sistemas inteligentes.

Cada vez mais, assistentes virtuais, chatbots e agentes automatizados recebem nomes, vozes e identidades humanas para gerar empatia e engajamento. O problema é que, ao fazer isso sem critério, os sistemas acabam herdando preconceitos profundamente enraizados na sociedade.

Segundo os pesquisadores, mesmo que discriminar uma IA não pareça grave à primeira vista, esse tipo de comportamento pode reforçar hábitos prejudiciais e normalizar atitudes discriminatórias que depois se refletem nas relações entre pessoas reais.

Com a expansão de tecnologias como carros autônomos, assistentes pessoais e sistemas de gestão baseados em IA, a cooperação entre humanos e máquinas será cada vez mais comum. Entender como gênero, confiança e expectativa influenciam essas interações é essencial para criar sistemas mais justos, confiáveis e alinhados a valores sociais como equidade e justiça.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário