Você já imaginou pedir para o computador organizar sua viagem, resolver problemas matemáticos complexos, programar um site inteiro, tudo isso como se estivesse conversando com um assistente humano superinteligente?
Pois essa é a grande ambição da OpenAI: criar agentes de IA que façam absolutamente qualquer coisa que você precise, com o simples ato de pedir.
O que parece um sonho futurista está sendo construído, passo a passo, dentro dos laboratórios da OpenAI, uma das empresas mais influentes no desenvolvimento de inteligência artificial no mundo. E essa história começa com um projeto curioso, quase discreto: ensinar IA a resolver provas de matemática de nível olímpico.
Um passo de cada vez: a matemática como porta de entrada
Em 2022, Hunter Lightman se juntou à OpenAI como pesquisador. Enquanto seus colegas lançavam o ChatGPT, ele mergulhava em um trabalho bem menos glamouroso, mas essencial: treinar modelos de IA para resolver problemas de matemática de ensino médio, os mesmos que aparecem nas Olimpíadas Internacionais de Matemática (IMO).
Na época, os modelos ainda tropeçavam em questões lógicas. Mas o avanço foi rápido. Em pouco tempo, os sistemas passaram a raciocinar de maneira surpreendente. Um dos modelos mais recentes, aliás, conquistou uma medalha de ouro na IMO — feito que nem todo humano consegue.
A ideia era clara: se a IA conseguir dominar o raciocínio matemático, ela poderá aplicar esse mesmo tipo de lógica em outras áreas, como programação, pesquisa, planejamento e… praticamente qualquer tarefa.
ChatGPT: de experimento a fenômeno global
Vale lembrar que o ChatGPT, aquele que você talvez use para tirar dúvidas ou se inspirar, nasceu quase por acaso. Era apenas uma prévia de pesquisa quando foi liberado ao público, mas viralizou. E a OpenAI percebeu que havia ali uma oportunidade de ouro.
Desde então, a empresa vem investindo pesado em modelos capazes de raciocinar, não apenas responder. E isso mudou tudo.
A era do raciocínio artificial
O grande salto veio com a criação do modelo o1, lançado no final de 2024. O impacto foi tão grande que os 21 pesquisadores por trás dele se tornaram as figuras mais cobiçadas do Vale do Silício. O próprio Mark Zuckerberg, da Meta, contratou cinco deles com salários milionários.
Mas o que torna esse modelo tão especial?
A resposta está em uma técnica chamada aprendizado por reforço (ou RL, de reinforcement learning). Trata-se de um método onde a IA aprende a partir de tentativa e erro em ambientes simulados, recebendo feedback sobre suas escolhas.
Esse tipo de abordagem já existia antes e foi usada, por exemplo, no AlphaGo, IA do Google que venceu um campeão mundial no jogo Go, em 2016. Mas a OpenAI levou a técnica a um novo patamar.
Eles combinaram modelos de linguagem, aprendizado por reforço e uma técnica chamada computação em tempo de teste, que permite que a IA use mais tempo e poder de processamento para refletir antes de responder. Isso resultou em algo que parece, literalmente, pensamento.
“Eu via o modelo raciocinar, perceber erros, voltar atrás… era como ler os pensamentos de alguém”, contou um dos pesquisadores.
O nascimento dos agentes
Foi esse avanço que deu origem à ideia dos agentes de IA: sistemas que não apenas respondem, mas executam tarefas por conta própria, como se fossem assistentes digitais com autonomia.
Sam Altman, CEO da OpenAI, explicou em um evento da empresa: “No futuro, você vai apenas pedir o que precisa, e o computador vai fazer tudo por você.”
Mas transformar isso em realidade não é simples. Criar o modelo o1 exigiu que a OpenAI desviasse recursos preciosos, como equipes inteiras de pesquisa e muitas GPUs (as placas responsáveis por processar grandes volumes de dados).
Internamente, tudo dependia de resultados. Quando os pesquisadores mostraram que o modelo realmente funcionava, a empresa decidiu apostar todas as fichas.
Um caminho cheio de desafios
Apesar dos avanços impressionantes, esses agentes ainda enfrentam limitações. Eles funcionam muito bem para tarefas objetivas e verificáveis, como programar códigos. O Codex, agente da OpenAI para programadores, já é amplamente usado por desenvolvedores.
Mas, quando se trata de tarefas mais subjetivas — como ajudar nas compras online ou planejar uma viagem personalizada — eles ainda cometem erros bobos ou demoram demais.
A razão? Falta de dados bem estruturados para esse tipo de tarefa. Mas os pesquisadores estão explorando novas formas de treinar esses modelos, inclusive em tarefas sem uma resposta “certa”.
Um futuro próximo (e bem diferente)
Os pesquisadores da OpenAI acreditam que o futuro próximo trará agentes mais intuitivos — que entendam o que você quer, sem que você precise configurar opções ou dar instruções detalhadas. A ideia é que eles saibam, por conta própria, qual ferramenta usar, como pensar e por quanto tempo refletir antes de agir.
Ou seja, imagine uma versão do ChatGPT que pode navegar por sites, fazer reservas, montar planilhas, pesquisar por você e ainda tomar decisões com base no seu estilo.
Isso vai muito além do que temos hoje.
