Nvidia GTC 2026: Jensen Huang Revela Roteiro de IA de $1 Trilhões Desde a Terra até ao Espaço



A conferência Nvidia GTC 2026 começou oficialmente em 16 de março no SAP Center em San Jose, Califórnia, com o co-fundador e CEO Jensen Huang entregando um discurso de abertura espetacular que se estendeu por mais de duas horas. Vestido com seu casaco de couro característico, Huang apresentou uma visão abrangente do futuro da IA, introduzindo novas arquiteturas de hardware, atualizações revolucionárias de software, e uma expansão ambiciosa para o espaço.

A Economia de "Tokens Inteligentes" e a Perspetiva de $1 Trilhões

Huang começou reformulando a trajetória da IA, declarando que a indústria está a transitar da "era de treino de modelos" para a "era de inferência". Introduziu o conceito de "Tokens Inteligentes" como a unidade fundamental da economia de IA—cada resposta gerada por IA, imagem ou decisão representa um token produzido pelo que chamou de "fábricas de IA" ou "fábricas de tokens". Esta mudança conceptual reposiciona os centros de dados de centros de custo para instalações produtivas geradoras de receita.

A escala financeira desta visão é impressionante. Huang anunciou que a Nvidia vê encomendas para seus sistemas atuais e de próxima geração—Blackwell e Vera Rubin—totalizando **$1 trilhões até 2027**. Isto duplica a oportunidade de $500 mil milhões que a empresa projetou no ano passado, sinalizando que a procura de IA empresarial permanece insaciável apesar das incertezas económicas mais amplas.

Inovações de Hardware: Plataforma Vera Rubin e Além

Plataforma de Fábrica de IA Vera Rubin

A peça central dos anúncios de hardware foi a revelação completa da plataforma Vera Rubin, sucessora da Blackwell da Nvidia. Ao contrário de um único chip, Vera Rubin é posicionada como uma completa "plataforma de fábrica de IA" compreendendo:

· Vera CPU: O novo processador central de design personalizado da Nvidia, construído especificamente para cargas de trabalho de IA. Oferece o dobro da eficiência e é 50% mais rápido do que CPUs tradicionais.
· Rubin GPU: O próximo processador gráfico de geração, projetado para lidar com modelos multimodais com parâmetros em trilhões.
· NVLink de Sexta Geração: Tecnologia de interconexão avançada permitindo que centenas de GPUs Rubin funcionem como uma única GPU virtual massiva.
· Comutadores CPO: Tecnologia de ótica co-empacotada integrada (CPO) substitui cabos de cobre tradicionais com comunicação ótica, reduzindo dramaticamente o consumo de energia enquanto aumenta a largura de banda.

Toda a plataforma é arrefecida por líquido e projetada para implementação de "fábrica de IA", onde os clientes podem simplesmente conectar energia e dados para começar a produção de IA.

Rubin Ultra e a Arquitetura Feynman

Olhando para o futuro mais próximo, Huang pré-visualizou a plataforma Rubin Ultra apresentando a arquitetura de rack Kyber—um design revolucionário onde as bandejas de computação ficam na vertical para aumentar densidade e reduzir latência. Kyber integrará 144 GPUs num sistema de escala de rack, esperado para enviar em 2027.

Ainda mais distante, Huang confirmou que a Nvidia está já a desenvolver a próxima arquitetura de geração com codinome Feynman, nomeada após o físico Richard Feynman. Esta arquitetura utilizará chips com empilhamento 3D e memória HBM personalizada, impulsionando os limites de desempenho em direção a 2030.

Integração Estratégica da Groq: O Motor de Inferência LPU

Um dos anúncios mais significativos envolveu a integração de tecnologia da Groq pela Nvidia, a startup de inferência de IA cuja tecnologia a Nvidia licenciou por aproximadamente $20 mil milhões em dezembro. A colaboração resultou na Unidade de Processamento de Linguagem Groq 3 da Nvidia (LPU), agora marcada simplesmente como o chip de inferência LPX.

Impulso de Velocidade de Inferência de 35x

O Groq 3 LPX é projetado especificamente para inferência de baixa latência—a fase crítica onde modelos de IA geram respostas em tempo real. Huang demonstrou como a arquitetura LPX funciona juntamente com GPUs Rubin por meio de uma técnica chamada "inferência desacoplada":

· GPUs lidam com o estágio de "pré-preenchimento" (processamento de entradas de utilizadores em paralelo)
· LPUs lidam com o estágio de "descodificação" (gerando tokens sequencialmente com latência mínima)

Esta divisão de trabalho resulta numa melhoria de desempenho de 35x em tokens-por-watt quando LPUs Groq são adicionados aos sistemas Rubin. O rack Groq 3 LPX aloja 256 LPUs e é projetado para ficar junto aos racks Vera Rubin em centros de dados.

Huang foi pragmático sobre a implementação, sugerindo que para cargas de trabalho que requerem máxima taxa de transferência, Vera Rubin pura permanece ótima. No entanto, para "geração de tokens de engenharia de alto valor" e aplicações de codificação, adicionar LPUs Groq a cerca de 25% de um centro de dados oferece desempenho ótimo.

Os chips LPX estão já em produção em volume na Samsung e esperados para enviar no terceiro trimestre de 2026.

Software e Agentes de IA: NemoClaw e Modelos Abertos

NemoClaw para Agentes de IA Empresarial

Com base no fenómeno OpenClaw de código aberto—que Huang observou ter-se tornado o projeto de código aberto que cresce mais rapidamente em história—a Nvidia introduziu NemoClaw, uma plataforma pronta para empresas para implementar agentes de IA.

A plataforma fornece um completo "stack de referência" que automaticamente descarrega OpenClaw e constrói agentes de IA prontos para produção com segurança, privacidade e recursos de gestão de nível empresarial. Isto posiciona a Nvidia para competir com ofertas da OpenAI e outros fornecedores em nuvem no mercado de IA de agentes em rápido crescimento.

Colaboração de Modelos Abertos

Huang anunciou a "Aliança Nemotron", uma colaboração com laboratórios de IA líderes incluindo Mistral AI, Ai2, e outros para desenvolver modelos fronteiriços abertos. Esta iniciativa reflete o compromisso da Nvidia com inovação aberta, que Huang enquadrou como essencial para a proliferação da IA em toda a indústria.

Jogos e Gráficos: DLSS 5

Os jogos permanecem parte do património da Nvidia, e Huang entregou uma atualização significativa para jogadores com DLSS 5. Descrito como o "avanço mais significativo em computação gráfica desde o debut do ray tracing em tempo real em 2018," DLSS 5 alavanca IA generativa para renderizar cenas de jogos inteiras em tempo real.

A tecnologia utiliza modelos de IA para gerar iluminação e materiais fotorrealistas, efetivamente transformando a renderização de jogos num problema de inferência de IA. Huang comparou-o ao "momento de GPT" dos gráficos. Principais editoras de jogos incluindo Capcom, Tencent, e NetEase comprometeram-se a apoiar DLSS 5, que é esperado para lançar no outono de 2026 com suporte 4K nativo.

IA Física: Veículos Autónomos e Robótica

Expansão de Veículos Autónomos

O discurso de abertura apresentou atualizações substanciais em transporte autónomo. A Uber anunciou planos para implementar uma frota alimentada pelo software Nvidia Drive AV em 28 cidades em quatro continentes até 2028, começando com Los Angeles e San Francisco em 2027.

Vários fabricantes de automóveis importantes comprometeram-se a construir veículos autónomos de Nível 4 na plataforma Nvidia Drive Hyperion, incluindo:

· Nissan
· BYD
· Geely
· Hyundai
· Isuzu (autocarros autónomos, em parceria com Tier IV)

Huang caracterizou veículos autónomos como "potencialmente a primeira indústria de robótica multi-trilião de dólares," com a Nvidia fornecendo a infraestrutura completa desde treino até implementação.

Colaboração Disney: O Robot "Olaf"

Num momento encantador, Huang foi acompanhado no palco por um robot desenvolvido em colaboração com a Disney—uma versão robótica do Olaf de Frozen. O robot demonstrou caminhada natural, gestos e interação conversacional, mostrando a plataforma Nvidia Isaac Sim e módulos de robótica Jetson Thor.

Esta demonstração incorporou a visão "IA Física" da Nvidia—sistemas de IA que não apenas processam informações mas interagem com e operam dentro do mundo físico.

Exploração Espacial: Space-1 Vera Rubin

Talvez o anúncio mais futurista fosse Space-1 Vera Rubin, um módulo de computação de IA projetado para implementação espacial. Construído para resistir a condições extremas de radiação e temperatura, estes módulos podem ser instalados em satélites ou estações espaciais.

As implicações são profundas: satélites equipados com Space-1 podem processar imagens e dados de sensores em órbita em vez de transmitir dados brutos para a Terra. Um satélite meteorológico poderia identificar um furacão a formar-se e emitir avisos diretamente, sem esperar pelo processamento terrestre. Huang descreveu isto como "construir a arquitetura de computação completa desde a Terra até ao espaço".

CUDA aos 20: Celebrando um Património

Durante todo o discurso de abertura, Huang refletiu sobre o investimento de 20 anos da Nvidia em CUDA, a plataforma de computação paralela introduzida em 2006. O que começou como uma aposta arriscada na computação GPU tornou-se a camada de software fundamental para toda a indústria de IA.

"Vinte anos que estamos nesta arquitetura—esta invenção revolucionária," disse Huang ao público. O aniversário de CUDA serviu como um lembrete do compromisso de longo prazo da Nvidia com computação acelerada, muito antes de IA se tornar um fenómeno generalista.

Reação do Mercado e Perspetiva de Analistas

As ações da Nvidia subiram aproximadamente 2% durante o discurso de abertura, embora ganhos moderados para um fechamento de 1,65% enquanto investidores digeriram a escala da previsão de encomendas de $1 trilhões. Os analistas sugeriram que enquanto a cifra parecia dramática, podia estar alinhada com expectativas de consenso quando completamente modelada.

A Wedbush Securities caracterizou a perspetiva da Nvidia como "muito otimista," notando que a empresa está efetivamente a enquadrar um mercado endereçável de $3 trilhão a $4 trilhões em infraestrutura de IA até 2030. Analistas da Morgan Stanley observaram que a orientação explícita de Huang através de 2027 deve ajudar investidores a construir confiança com a duração do ciclo de investimento de IA.

A Grande Perspetiva: A Revolução Industrial da IA

Huang concluiu com uma visão abrangente: o que começou como o "momento iPhone" para IA há três anos evoluiu para uma revolução industrial em larga escala. Fábricas de IA produzindo tokens inteligentes tornar-se-ão tão fundamentais para a economia global como centrais geradoras de eletricidade.

"Os custos de computação estão a declinar dramaticamente, e a inovação está a acelerar exponencialmente," disse Huang. "Agora é o melhor momento para começar a construir o futuro".

GTC 2026 continua até 19 de março em San Jose, com mais de 1.000 sessões, treino prático, e um painel especial em modelos fronteiriços abertos moderado por Huang em 18 de março. Para aqueles incapazes de assistir presencialmente, as sessões permanecem disponíveis para participação virtual através da plataforma de eventos da Nvidia.
Ver original
post-image
post-image
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar