Nvidia lança plataforma aberta de IA para enfrentar os desafios mais difíceis dos carros autônomos

Renê Fraga
3 min de leitura

Principais destaques

  • A Nvidia apresentou o Alpamayo, uma plataforma de IA de código aberto voltada à condução autônoma em situações raras e complexas.
  • A proposta aposta em raciocínio passo a passo, permitindo que o sistema explique suas decisões de direção em linguagem simples.
  • A iniciativa busca acelerar o avanço rumo à autonomia de Nível 4 com apoio de grandes empresas do setor.

A Nvidia revelou o Alpamayo, durante a CES 2026, em Las Vegas. O CEO Jensen Huang descreveu o anúncio como um “momento ChatGPT da IA física”, sinalizando uma mudança profunda na forma como carros autônomos aprendem a lidar com o imprevisível.

Diferentemente das arquiteturas tradicionais, que separam percepção e planejamento, o Alpamayo integra visão, linguagem e ação em um único sistema.

O objetivo é enfrentar o chamado problema da cauda longa, que envolve situações raras como obras inesperadas, pedestres em locais improváveis ou eventos climáticos extremos, justamente os cenários que mais desafiam a segurança.

Um novo jeito de pensar a tomada de decisão

No centro da plataforma está o Alpamayo 1, um modelo de visão-linguagem-ação com 10 bilhões de parâmetros.

Ele analisa vídeos do ambiente, define trajetórias de condução e ainda descreve o raciocínio por trás de cada escolha. Esse modelo já está disponível no Hugging Face, permitindo que desenvolvedores criem versões menores ou ferramentas de avaliação.

Segundo a Nvidia, essa abordagem torna a IA mais transparente e confiável, algo essencial para aplicações críticas como a direção autônoma.

Simulação realista e dados abertos

Outro pilar do Alpamayo é o AlpaSim, um framework de simulação lançado no GitHub. Ele oferece modelagem detalhada de sensores e dinâmica de tráfego, ajudando equipes a testar seus sistemas em ambientes controlados antes de levá-los às ruas.

A plataforma também inclui os Physical AI Open Datasets, com mais de 1.700 horas de dados de direção coletados em diferentes regiões e condições. Esses conjuntos de dados foram pensados para treinar modelos capazes de raciocinar sobre eventos raros, algo que dados convencionais dificilmente cobrem.

Apoio da indústria e foco no Nível 4

Empresas como Lucid Motors, Jaguar Land Rover e a Uber demonstraram apoio à iniciativa. Para Sarfraz Maredia, responsável global por mobilidade autônoma da Uber, lidar com cenários imprevisíveis é um dos maiores desafios da autonomia veicular.

A Nvidia reforça que os modelos funcionam como “modelos professores”, ajustados e adaptados pelas empresas em vez de rodarem diretamente nos veículos. Atualizações futuras prometem modelos maiores, raciocínio mais avançado e opções de licenciamento comercial, fortalecendo o caminho para veículos totalmente autônomos em ambientes específicos.

Seguir
Renê Fraga é fundador e editor-chefe do Eurisko, ecossistema editorial independente dedicado à inteligência artificial, código aberto, tecnologia e cultura digital. Atuando com projetos online desde 1996, escreve há mais de 20 anos sobre tecnologia e inovação, acompanhando a evolução da internet e o impacto das novas tecnologias na forma como vivemos, trabalhamos e pensamos.
Nenhum comentário