A NVIDIA aproveitou a CES para deixar claro que a robótica está entrando em um novo estágio. A empresa apresentou novos modelos abertos de IA física, frameworks de simulação e soluções de computação que miram um objetivo ambicioso: transformar robôs caros, rígidos e de tarefa única em máquinas capazes de perceber, raciocinar e agir no mundo real com muito mais autonomia. Ao mesmo tempo, parceiros globais como Boston Dynamics, Caterpillar, LG Electronics, Franka Robotics, NEURA Robotics e Humanoid revelaram robôs e máquinas autônomas que já nascem apoiados nesse ecossistema.
O discurso é menos sobre gadgets futuristas e mais sobre infraestrutura. A NVIDIA quer resolver gargalos clássicos da robótica, como o alto custo de treinamento, a dificuldade de testar comportamentos no mundo físico e a dependência de programação manual. A aposta está em modelos abertos, simulação em larga escala e computação eficiente da nuvem até a borda.
Modelos abertos para ensinar robôs a entender o mundo
Entre os anúncios centrais estão os novos modelos da família NVIDIA Cosmos e o avanço do Isaac GR00T, todos distribuídos de forma aberta. A ideia é permitir que desenvolvedores pulem a fase pesada de pré-treinamento e foquem na adaptação dos robôs a contextos reais.
O Cosmos Transfer 2.5 e o Cosmos Predict 2.5 funcionam como modelos de mundo, capazes de gerar dados sintéticos fisicamente consistentes e testar políticas robóticas em simulação antes de qualquer contato com o hardware. Já o Cosmos Reason 2 entra como um modelo de visão e linguagem com raciocínio, permitindo que máquinas interpretem cenas, entendam comandos e planejem ações de forma mais próxima ao comportamento humano.
O Isaac GR00T N1.6 conecta tudo isso em um modelo de visão, linguagem e ação voltado especialmente para robôs humanoides. Ele permite controle corporal completo e usa o Cosmos Reason para dar mais contexto às decisões. Na prática, isso reduz o tempo entre a ideia e o robô funcionando fora do laboratório.
Curiosidade interessante é que empresas bem diferentes já estão usando esse stack. Franka Robotics, NEURA Robotics e Humanoid treinam novos comportamentos em simulação, enquanto a Salesforce aplica esses modelos para analisar imagens capturadas por robôs e acelerar a resolução de incidentes. Na área médica, a LEM Surgical treina braços autônomos de um robô cirúrgico usando dados sintéticos, mostrando como a IA física começa a sair do chão de fábrica e chegar a ambientes sensíveis.
Simulação e orquestração ganham escala
Outro ponto crítico atacado pela NVIDIA é a fragmentação dos fluxos de desenvolvimento. Treinar, testar e validar robôs ainda exige uma colcha de retalhos de ferramentas. Para reduzir essa complexidade, a empresa lançou dois frameworks open source.
O Isaac Lab-Arena funciona como um ambiente colaborativo de avaliação e benchmarking em larga escala. Ele se conecta a benchmarks conhecidos do setor, como Libero e Robocasa, ajudando a padronizar testes e garantir que um robô realmente saiba o que está fazendo antes de ir para o mundo físico.
Já o OSMO é um framework de orquestração que unifica tarefas como geração de dados, treinamento e testes em diferentes ambientes computacionais, de workstations locais à nuvem híbrida. A proposta é simples, mas poderosa: dar aos times de robótica uma visão central de todo o pipeline, reduzindo semanas de trabalho manual.
Open source como motor da robótica
A parceria com a Hugging Face reforça a estratégia aberta da NVIDIA. A robótica já é uma das categorias que mais crescem na plataforma, e agora modelos do Isaac e do GR00T passam a integrar diretamente o framework LeRobot. Isso aproxima comunidades gigantes, conectando milhões de desenvolvedores de IA com quem está colocando robôs para funcionar de verdade.
Um detalhe que chama atenção é a interoperabilidade com robôs open source como o Reachy 2 e o Reachy Mini, que poderão rodar modelos NVIDIA localmente. Isso abre espaço para experimentação em universidades, startups e labs independentes, algo que historicamente sempre foi caro demais na robótica.
Humanoides ganham músculo com Jetson Thor
No hardware, o NVIDIA Jetson Thor aparece como peça-chave para robôs humanoides com capacidade de raciocínio. Diversos fabricantes apresentaram máquinas integradas a esse computador robótico, indo de humanoides industriais a robôs domésticos.
A NEURA Robotics mostrou um humanoide de terceira geração com design assinado pela Porsche, enquanto a LG revelou um robô doméstico focado em tarefas residenciais. Boston Dynamics e outros players já existentes também integraram o Thor para melhorar navegação e manipulação, sinalizando que a corrida pelos humanoides úteis está longe de ser só conceitual.
IA física chega à borda industrial
Para além dos humanoides, a NVIDIA também quer levar IA física a ambientes industriais com restrições de energia e custo. O novo módulo Jetson T4000, baseado na arquitetura Blackwell, entrega até quatro vezes mais desempenho que a geração anterior, mantendo consumo controlado. É um upgrade direto para quem já usa Jetson Orin e quer mais poder sem redesenhar tudo.
O IGX Thor amplia essa proposta ao oferecer computação de IA com foco em segurança funcional, mirando setores como indústria pesada e até aviação. A Caterpillar, por exemplo, está expandindo sua colaboração com a NVIDIA para levar autonomia avançada a máquinas de construção e mineração, um sinal claro de que a IA física já começa a sair dos protótipos e entrar em operações reais.
O que isso tudo indica
O recado da NVIDIA na CES é direto: a robótica está vivendo seu ponto de virada. Com modelos abertos, simulação mais acessível e hardware eficiente, o desenvolvimento deixa de ser privilégio de poucos gigantes. A próxima geração de robôs tende a ser menos engessada, mais adaptável e, principalmente, mais presente no cotidiano industrial, médico e doméstico. Para quem acompanha tecnologia de perto, é aquele tipo de mudança que não faz barulho imediato, mas redefine o jogo nos próximos anos.


