“Bush Legend”: avatar indígena criado por IA levanta alerta global sobre ética, apropriação cultural e desinformação

Renê Fraga
5 min de leitura

Principais destaques:

  • Um perfil popular nas redes sociais apresenta um suposto homem indígena australiano que, na verdade, é totalmente gerado por inteligência artificial.
  • Apesar de alguns avisos, grande parte do público não percebe que o personagem não é real, o que gera críticas sobre engano, racismo e apropriação cultural.
  • Especialistas e lideranças indígenas alertam para um novo fenômeno chamado de “AI Blakface”, com impactos diretos na autodeterminação e nos direitos culturais.

Um personagem conhecido como “Bush Legend” vem acumulando seguidores no TikTok, Facebook e Instagram ao apresentar vídeos curtos sobre animais nativos da Austrália.

Com visual estereotipado, pinturas corporais e trilhas com didgeridoo, o suposto divulgador da fauna rapidamente conquistou o público. O problema é que ele não existe.

Apesar de o perfil mencionar que se trata de conteúdo gerado por IA, muitos usuários não acessam essas informações e interagem como se estivessem diante de uma pessoa real.

Comentários elogiam sua “energia” e chegam a compará-lo a Steve Irwin, sem perceber que voz, aparência e comportamento foram todos fabricados por algoritmos.

Quando o aviso não é suficiente

Embora alguns vídeos tragam marcas d’água ou legendas indicando o uso de inteligência artificial, isso passa despercebido para quem apenas consome o conteúdo no fluxo das redes.

O resultado é um público emocionalmente engajado com um personagem inexistente, acreditando apoiar um criador indígena real.

Esse cenário preocupa porque a figura do “Bush Legend” é construída com elementos visuais associados a povos aborígenes australianos, mesmo que o criador do perfil, segundo as poucas informações disponíveis, esteja baseado na Nova Zelândia e não tenha ligação direta com essas comunidades.

Racismo real, impacto real

Mesmo sendo fictício, o avatar não está imune a ataques racistas. O problema é que esses comentários não afetam apenas um personagem artificial, mas pessoas indígenas reais que leem e convivem com esse tipo de discurso online.

Há ainda um efeito perverso: alguns usuários exaltam o avatar enquanto desmerecem indígenas de verdade, criando uma comparação injusta entre uma figura “idealizada” por IA e comunidades reais, diversas e complexas.

O próprio criador respondeu às críticas dizendo que não representa nenhuma cultura específica e que o conteúdo é “apenas sobre animais”. Para pesquisadores e ativistas, essa justificativa ignora uma questão central: se o foco fosse apenas fauna, por que usar a imagem estereotipada de um homem indígena?

A ética da IA e o risco do “AI Blakface”

O caso expõe um debate maior sobre inteligência artificial e direitos culturais. Sistemas generativos já são apontados como ferramentas que violam direitos de Propriedade Cultural e Intelectual Indígena, ao reproduzir símbolos, saberes e estéticas sem consentimento.

Surge assim o conceito de “AI Blakface”, no qual pessoas não indígenas criam personagens indígenas artificiais, muitas vezes baseados em estereótipos visuais rasos.

Colares, pinturas com ocre e elementos culturais aparecem deslocados de seu significado real, transformados apenas em estética.

O ponto mais sensível é a monetização. Esses avatares podem gerar receita, visibilidade e parcerias comerciais, enquanto as comunidades das quais a imagem é extraída não recebem nenhum benefício.

Para especialistas, isso configura uma nova forma de colonialismo digital mediado por algoritmos.

O que pode ser feito agora

O avanço da IA torna cada vez mais difícil distinguir o que é real do que é fabricado. Por isso, aumentar a alfabetização midiática e em inteligência artificial se torna urgente.

Também é fundamental apoiar criadores indígenas reais, que compartilham conhecimento, cultura e vivências autênticas. Antes de curtir, comentar ou compartilhar, vale sempre perguntar: quem criou este conteúdo? Ele é real? E quem se beneficia com sua popularidade?

O caso do “Bush Legend” não é isolado. Ele sinaliza um futuro em que a tecnologia pode amplificar desigualdades se não houver governança, participação indígena no desenvolvimento de IA e responsabilidade ética por parte de criadores e plataformas.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário