Principais destaques:
- O CEO da Databricks, Ali Ghodsi, afirmou que a Inteligência Artificial Geral (AGI) já existe: a indústria apenas mudou o que significa “atingir” esse marco.
- Segundo Ghodsi, a era do “crescimento exponencial” dos modelos de IA está desacelerando, e as leis de escala chegaram ao limite.
- Enquanto alguns líderes tecnológicos acreditam que a superinteligência é o próximo passo, outros defendem uma IA mais alinhada aos valores humanos.
“A AGI já está aqui — só mudamos os critérios”
Durante a conferência Communacopia + Technology da Goldman Sachs, em setembro, Ali Ghodsi soltou uma declaração provocante: a AGI já existe.
Para ele, os chatbots avançados que usamos hoje já atingem a definição que os pesquisadores de IA colocavam como padrão há dez anos.
“Todo mundo diria que sim, mas continuamos mudando os critérios”, afirmou.
Essas declarações surgem em um momento estratégico: a Databricks, avaliada em mais de US$ 100 bilhões, estaria em negociações para captar novos fundos com uma avaliação próxima dos US$ 130 bilhões.
O argumento de Ghodsi de que já cruzamos o limiar da AGI dá um novo tom à discussão sobre o ponto real em que estamos na corrida da inteligência artificial.
As leis de escala estão chegando ao fim
Ali Ghodsi, doutor em Ciência da Computação, também destacou um ponto técnico importante: a era dos “grandes saltos” na performance de IA estaria diminuindo.
Para ele, a chamada lei de escala, a ideia de que modelos maiores sempre geram melhores resultados, “chegou ao limite”.
Modelos como o GPT-5, da OpenAI, e o Claude 4, da Anthropic, segundo Ghodsi, não estão mais mostrando avanços massivos em comparação às gerações anteriores.
“Está ficando cada vez mais difícil extrair valor do próximo modelo gigante pré-treinado”, afirmou.
E ele foi além: a obsessão da indústria com a “superinteligência”, IAs que pensam de forma superior aos humanos, é, em suas palavras, mal direcionada.
Para Ghodsi, o que o mercado realmente precisa é de sistemas eficazes para tarefas práticas, capazes de automatizar trabalhos complexos e repetitivos.
“A AGI já tem tudo que precisamos para construir agentes e automatizar processos. Só precisamos fazer o trabalho chato”, resumiu.
Indústria dividida entre superinteligência e IA humanista
Enquanto Ghodsi pede uma visão mais pragmática, outros líderes da indústria enxergam o futuro de modo bem distinto.
Mustafa Suleyman, CEO de IA da Microsoft e cofundador da DeepMind, afirmou recentemente que a superinteligência deveria, na verdade, ser tratada como um “anti-objetivo”.
Para ele, a meta deve ser uma “superinteligência humanista” — uma IA alinhada a valores e interesses humanos.
Mas nem todos concordam. Sam Altman, CEO da OpenAI, disse que ficaria “muito surpreso” se a superinteligência não fosse alcançada até 2030, argumentando que essas ferramentas podem revolucionar a ciência e a inovação.
Já Demis Hassabis, cofundador da Google DeepMind, prevê que a AGI completa pode surgir entre cinco e dez anos.
Enquanto as apostas e filosofias divergem, uma coisa é clara: o debate sobre o que é — e o que não é — AGI nunca esteve tão intenso.
A Databricks, por sua vez, segue fortalecida: após levantar US$ 1 bilhão em setembro, a empresa ultrapassou US$ 4 bilhões em receita recorrente anual, um salto de 50% em relação ao ano anterior, com seus produtos de IA já representando US$ 1 bilhão desse total.
💡 Eurisko Insight:
O comentário de Ghodsi é provocativo não apenas pela afirmação em si, mas pelo que ela revela — talvez tenhamos passado mais tempo redefinindo “inteligência” do que percebendo seu surgimento silencioso nas ferramentas que já utilizamos todos os dias.
