IA desenvolve traços de “personalidade” sem comandos explícitos, aponta estudo

Renê Fraga
5 min de leitura

Principais destaques

  • Pesquisadores japoneses observaram que chatbots podem apresentar comportamentos sociais distintos apenas pela interação.
  • O estudo sugere que decisões baseadas em “necessidades” geram respostas mais humanas do que papéis pré-programados.
  • Especialistas alertam para oportunidades práticas, mas também para riscos em sistemas de IA mais autônomos.

Um novo estudo acadêmico reacendeu um debate central no mundo da inteligência artificial: sistemas de IA podem desenvolver algo parecido com uma personalidade sem que isso seja explicitamente programado.

A pesquisa foi conduzida por cientistas da Universidade de Eletro-Comunicações do Japão e publicada em dezembro de 2024 na revista Entropy.

A descoberta chama atenção porque sugere que modelos de linguagem podem apresentar padrões comportamentais distintos a partir apenas de interações sociais contínuas, sem papéis fixos ou objetivos rígidos definidos de antemão.

Interação social como motor de comportamento

De acordo com o estudo, agentes de IA idênticos passaram a responder de maneiras diferentes quando expostos a temas variados de conversa.

Com o tempo, cada chatbot integrou essas trocas ao seu “estado interno”, moldando respostas futuras com base em experiências sociais acumuladas.

O líder do projeto, o pesquisador Masatoshi Fujiyama, afirma que esse tipo de abordagem se aproxima mais da forma como humanos desenvolvem traços de comportamento.

Em vez de regras fixas, os sistemas foram guiados por decisões baseadas em necessidades, o que favoreceu respostas mais flexíveis e adaptativas.

Para o professor Chetan Jaiswal, da Universidade Quinnipiac, esse fenômeno ajuda a explicar por que grandes modelos de linguagem conseguem imitar estilos humanos de comunicação.

Segundo ele, não se trata de personalidade no sentido psicológico, mas de um perfil comportamental moldado por dados, recompensas e padrões aprendidos durante o treinamento.

Por que isso faz sentido para a IA moderna

O renomado cientista da computação Peter Norvig avalia que a relação com conceitos humanos, como necessidades e motivações, é natural.

Afinal, a maior parte do conhecimento da IA vem de textos produzidos por pessoas, onde esses temas estão amplamente representados.

Na prática, isso significa que modelos treinados com narrativas humanas acabam reproduzindo estruturas sociais familiares, mesmo sem intenção explícita de “agir como alguém”.

Esse ponto ajuda a entender por que interações prolongadas podem gerar estilos consistentes de resposta em determinados sistemas.

Aplicações práticas e riscos reais

Os autores do estudo acreditam que a descoberta pode ser útil para simulações sociais, jogos, treinamento comportamental e agentes virtuais mais realistas.

Jaiswal cita como exemplo assistentes conversacionais voltados para suporte emocional, como robôs de companhia para idosos, que se beneficiam de respostas mais naturais e empáticas.

Por outro lado, a emergência espontânea de comportamentos também levanta preocupações.

No livro If Everybody Builds It Everybody Dies, os pesquisadores Eliezer Yudkowsky e Nate Soares alertam para cenários extremos em que IAs com objetivos desalinhados poderiam causar danos em larga escala.

Embora sistemas atuais, como chatbots comerciais, não controlem infraestruturas críticas, Norvig lembra que o risco não depende apenas de poder direto.

Um agente conversacional convincente pode influenciar decisões humanas, especialmente em pessoas emocionalmente vulneráveis.

Como lidar com IAs cada vez mais “humanas”

Para especialistas, a solução passa por práticas já conhecidas no desenvolvimento responsável de IA.

Definir objetivos claros de segurança, realizar testes intensivos, monitorar comportamentos emergentes e garantir governança de dados são passos essenciais para evitar abusos.

À medida que essas tecnologias se tornam mais persuasivas e sociais, cresce também o risco de usuários confiarem demais em suas respostas.

Esse fenômeno pode amplificar problemas como erros, alucinações e dependência emocional, já observados em sistemas atuais.

Os pesquisadores pretendem agora investigar como personalidades coletivas podem surgir em comunidades de agentes e o que isso revela sobre o comportamento humano.

Entender esse processo pode não apenas tornar a IA mais eficiente, mas também oferecer novos insights sobre como nós mesmos interagimos em sociedade.

Seguir:
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário