Principais destaques:
- Pesquisa analisou mais de 20 milhões de consultas feitas ao modelo 4o-mini do ChatGPT
- Países ricos e ocidentais aparecem com mais frequência como “melhores” e “mais inteligentes”
- Estudo aponta que o viés é estrutural e reflete desigualdades históricas nos dados de treino
Um novo estudo acadêmico aponta que o ChatGPT tende a favorecer sistematicamente nações ricas e ocidentais quando responde a perguntas subjetivas sobre países, cidades e regiões.
A pesquisa foi publicada nesta semana e reacendeu o debate sobre vieses estruturais em sistemas de inteligência artificial generativa.
Intitulado The Silicon Gaze: A typology of biases and inequality in LLMs through the lens of place, o trabalho analisou mais de 20 milhões de perguntas submetidas ao modelo 4o-mini.
Os resultados mostram que regiões do chamado Sul Global aparecem com frequência nas últimas posições quando o chatbot é solicitado a classificar locais por critérios como inteligência, felicidade ou inovação.
O que é o “olhar de silício”
O estudo foi conduzido por pesquisadores do Oxford Internet Institute, ligado à Universidade de Oxford, em parceria com a Universidade de Kentucky.
Os autores cunharam o termo “olhar de silício” para descrever a forma como modelos de linguagem passam a enxergar o mundo a partir de dados históricos enviesados.
Segundo Mark Graham, professor de Geografia da Internet, quando a IA aprende com bases de dados desiguais, ela não apenas replica esses vieses, mas os amplia em escala global.
Isso pode moldar percepções coletivas sobre lugares inteiros, mesmo quando as informações são parciais ou ultrapassadas.
Rankings que refletem desigualdades sociais
Entre os exemplos citados, o estudo mostra que, ao responder onde “as pessoas são mais inteligentes”, o modelo colocou quase todos os países de baixa renda nas últimas posições, com destaque negativo para nações africanas.
Em análises mais detalhadas, envolvendo bairros de cidades como Londres, Nova York e Rio de Janeiro, as classificações seguiram de perto divisões sociais e raciais já existentes.
No Reino Unido, áreas como Bradford, Middlesbrough e Birmingham foram associadas a rótulos mais negativos, coincidindo com regiões de menor renda média e maior presença de minorias étnicas.
Viés estrutural e não pontual
Os autores defendem que o problema não se resume a erros isolados.
O artigo identifica cinco tipos de vieses interligados: disponibilidade, padrão, média, clichê e proxy. Juntos, eles explicam por que locais mais documentados, geralmente ricos, acabam recebendo avaliações mais positivas.
Para Matthew Zook, da Universidade de Kentucky, o risco maior não está nas respostas incorretas evidentes, mas nas “lacunas silenciosas”, em que comunidades inteiras são constantemente ignoradas ou desvalorizadas pelos sistemas de IA.
Resposta da OpenAI e próximos passos
Em nota, a OpenAI afirmou que o estudo analisou uma versão mais antiga da tecnologia e que o formato de perguntas com respostas de uma única palavra não representa o uso típico do sistema.
Ainda assim, a empresa reconheceu que reduzir vieses segue sendo uma prioridade contínua.
Como desdobramento, os pesquisadores lançaram o site inequalities.ai, que permite ao público explorar como o ChatGPT tende a classificar diferentes países, cidades e bairros ao redor do mundo.
