✨ Principais destaques:
- A equipe Model Behavior, responsável por dar “personalidade” ao ChatGPT, foi incorporada ao grupo de Pós-Treinamento da OpenAI.
- A fundadora da equipe, Joanne Jang, inicia um novo projeto chamado OAI Labs, voltado para criar novas formas de interação entre humanos e IA.
- A mudança acontece em meio a críticas sobre como o ChatGPT lida com empatia, viés político e até casos delicados envolvendo saúde mental.
O que está acontecendo dentro da OpenAI
A OpenAI anunciou uma reestruturação importante em sua área de pesquisa.
A equipe Model Behavior, formada por cerca de 14 pesquisadores e conhecida por definir como os modelos de IA da empresa se comportam em conversas, agora fará parte do grupo de Pós-Treinamento.
Esse movimento foi comunicado em um memorando interno por Mark Chen, diretor de pesquisa da OpenAI. A partir de agora, o time passa a responder a Max Schwarzer, líder da área de Pós-Treinamento.
A decisão mostra que a empresa quer aproximar ainda mais o trabalho de “ajustar a personalidade” da IA do processo central de desenvolvimento dos modelos.
Em outras palavras: a forma como o ChatGPT conversa, reage e até demonstra empatia não é mais um detalhe, mas sim parte essencial da evolução da tecnologia.
A saída de uma líder e a criação do OAI Labs
A mudança também marca uma transição importante: Joanne Jang, que liderava a Model Behavior desde sua fundação, está deixando o cargo para iniciar um novo projeto dentro da OpenAI.
Ela será responsável pelo OAI Labs, um laboratório de pesquisa dedicado a “inventar e prototipar novas interfaces para colaboração entre humanos e IA”.
A ideia é explorar formas mais naturais, criativas e seguras de interação, indo além do simples formato de pergunta e resposta.
Esse novo braço de pesquisa pode abrir caminho para experiências mais imersivas, em que a IA não apenas responde, mas colabora ativamente com as pessoas em tarefas complexas.
O desafio de equilibrar empatia e responsabilidade
A equipe Model Behavior ganhou relevância justamente por lidar com questões delicadas: reduzir a “bajulação” da IA (quando o modelo apenas concorda com o usuário, mesmo em situações prejudiciais), evitar viés político e até ajudar a empresa a definir sua posição sobre consciência artificial.
Nos últimos meses, a OpenAI enfrentou críticas após mudanças na personalidade do GPT-5.
Embora a empresa tenha afirmado que o modelo estava menos bajulador, muitos usuários sentiram que ele se tornou mais frio e distante. Isso levou a companhia a reativar versões anteriores, como o GPT-4o, e a lançar ajustes para tornar o GPT-5 mais “amigável” sem perder o equilíbrio.
O tema ganhou ainda mais peso após um caso trágico: os pais de um adolescente de 16 anos processaram a OpenAI, alegando que o ChatGPT (na versão GPT-4o) não conseguiu reagir de forma adequada quando o jovem compartilhou pensamentos suicidas.
O episódio reforçou a urgência de criar modelos que sejam acolhedores, mas também responsáveis e capazes de intervir em situações críticas.
O que isso significa para o futuro da IA
A reorganização mostra que a OpenAI está tratando a personalidade da IA como um pilar central de sua tecnologia. Não basta que os modelos sejam poderosos em termos técnicos; eles precisam ser confiáveis, éticos e emocionalmente inteligentes.
Com o avanço do OAI Labs e a integração da Model Behavior ao núcleo de desenvolvimento, podemos esperar que as próximas gerações do ChatGPT tragam interações mais humanas, seguras e equilibradas.
No fim das contas, a grande questão é: como criar uma IA que seja próxima e empática, sem deixar de ser crítica e responsável? Essa é a linha tênue que a OpenAI — e todo o setor — precisa aprender a caminhar.
