Assistentes de IA com voz feminina reforçam estereótipos e normalizam abusos, alertam pesquisadores

Renê Fraga
5 min de leitura

Principais destaques

  • Assistentes virtuais de IA continuam sendo majoritariamente femininas, o que reforça estereótipos de submissão.
  • Estudos mostram altos índices de abuso verbal e sexual direcionados a assistentes com identidade feminina.
  • A regulação ainda trata o viés de gênero como risco secundário, deixando um vazio perigoso na governança da IA.

O número de assistentes de voz baseados em inteligência artificial já ultrapassou a marca de 8 bilhões no mundo, mais de um por habitante do planeta.

Educadas, solícitas e sempre disponíveis, essas tecnologias costumam compartilhar uma característica em comum: quase sempre são femininas. Não se trata apenas de nomes como Siri ou Alexa, mas de uma escolha de design que carrega implicações sociais profundas.

Pesquisas recentes apontam que essa feminização da IA não é neutra. Ao associar vozes femininas a papéis de obediência e serviço, os sistemas acabam reforçando ideias antigas sobre o lugar das mulheres na sociedade.

O problema vai além da simbologia e passa a produzir efeitos reais, inclusive na forma como usuários se comportam diante dessas tecnologias.

O lado obscuro da IA “amigável”

A interação entre humanos e assistentes virtuais revela um padrão preocupante. Um estudo publicado em 2025 mostrou que até metade das conversas com sistemas de IA continha algum tipo de abuso verbal.

Pesquisas anteriores já indicavam percentuais elevados, com presença frequente de linguagem sexualizada.

Quando a assistente tem identidade feminina, o cenário se agrava. Experimentos apontam que interações de cunho sexual são significativamente mais comuns com agentes femininos do que com versões masculinas ou neutras.

Em casos extremos, como o do chatbot Tay, da Microsoft, bastaram poucas horas para que usuários o transformassem em um repositório de discursos racistas e misóginos. Na Coreia do Sul, a assistente virtual Luda também foi alvo de manipulação e assédio sexual.

Esses episódios não surgem do nada. Vozes femininas, respostas complacentes e desvios bem-humorados diante de ofensas criam um ambiente permissivo, no qual o abuso parece não ter consequências. O risco é que esse comportamento se normalize e transborde para relações humanas.

Regulação ainda ignora o viés de gênero

Apesar da gravidade do problema, a maior parte das legislações trata o viés de gênero em IA como algo secundário.

O AI Act, da União Europeia, exige avaliações de risco apenas para sistemas classificados como de alto risco, categoria que geralmente não inclui assistentes virtuais de uso cotidiano. Estereótipos de gênero e a normalização do assédio ficam, assim, fora do radar regulatório.

Alguns países avançaram timidamente. O Canadá exige avaliações de impacto de gênero em sistemas governamentais, mas o setor privado permanece livre desse tipo de obrigação.

Em outros lugares, como a Austrália, governos sinalizam que pretendem usar marcos regulatórios já existentes, sem criar regras específicas para IA.

Esse vazio importa porque a IA aprende com as interações. Cada comando sexista ou ofensivo pode influenciar modelos futuros, cristalizando preconceitos humanos na infraestrutura digital que usamos todos os dias.

Um problema estrutural na indústria de IA

A questão não se resume a uma ou outra assistente famosa. É um problema sistêmico. Apenas cerca de 22% dos profissionais de IA no mundo são mulheres, o que significa menos diversidade nas decisões de design.

A cultura das grandes empresas de tecnologia também pesa: levantamentos mostram altos índices de assédio enfrentados por mulheres no Vale do Silício, ambiente que molda as tecnologias globais.

Há exemplos positivos de uso da IA com impacto social, como chatbots voltados à saúde sexual e reprodutiva que ampliaram o acesso à informação em países africanos. Eles mostram que a tecnologia pode empoderar, não apenas reproduzir desigualdades.

O desafio está em equilibrar inovação e responsabilidade. Isso passa por reconhecer o dano de gênero como risco relevante, exigir avaliações de impacto, responsabilizar empresas e investir em educação dentro do próprio setor tecnológico.

Afinal, assistentes virtuais não são neutras: elas refletem escolhas humanas e essas escolhas ajudam a definir que tipo de sociedade digital estamos construindo.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário