Durante a CES, a nova arquitetura Rubin da NVIDIA tornou-se o foco das discussões recentes no mercado, sendo um grande avanço além da arquitetura MOE, projetada para a era da IA Agentic, entre outras coisas. Eu examinei mais a fundo e realmente senti o gosto da "auto-revolução" do Jensen: 1) No passado, a NVIDIA dependia da vantagem do hardware GPU, aproveitando o período de bonança em que as grandes empresas de IA estavam comprando poder computacional para treinar grandes modelos. Naquela época, a lógica era simples: quem tinha mais placas gráficas conseguia treinar os melhores modelos. Mas agora, a guerra da IA já se transferiu do campo de "poder computacional" para o "raciocínio", especialmente com a chegada da era Agentic, onde a IA precisa lidar com raciocínios de alta frequência, múltiplos passos e contextos extremamente longos. Nesse momento, os parâmetros do modelo facilmente chegam a trilhões, e a taxa de transferência de dados é imensa. Mesmo que a GPU calcule rapidamente, se a memória não transferir dados rapidamente o suficiente, a GPU ficará ociosa, isso é o que chamamos de "parede de armazenamento". Em outras palavras, ter muitas placas gráficas já não resolve o problema; é necessário ter alta memória e largura de banda para suportar. O Rubin visa resolver esse problema. 2) Portanto, o HBM4, que o Rubin estreou, suporta a quarta geração de memória de alta largura de banda, permitindo que a largura de banda alcance 22TB/s. Mas o mais crucial é que ele combina com a tecnologia NVLink 6 (largura de banda de 260TB/s dentro do rack), transformando logicamente 72 placas em "um único chip gigante". O que isso significa? Antes, quando você comprava uma placa gráfica, estava comprando componentes independentes, e os dados eram transferidos entre as placas como se fossem entregas passando por vários centros de distribuição. Agora, o Rubin, através de interconexões de alta densidade, permite que os dados fluam entre diferentes GPUs quase sem sentir a distância física; 72 trabalhadores não estão mais fazendo seu próprio trabalho, mas compartilhando um único cérebro. Acho que essa é a verdadeira arma secreta do Rubin: não é apenas empilhar parâmetros de hardware, mas reestruturar o fluxo de dados de todo o sistema. 3) Se o MOE (Modelo de Especialistas Mistos) foi um golpe de redução de dimensão na estratégia de negócios da NVIDIA, que foi superada por novos concorrentes como a DeepSeek, o Rubin é claramente uma contraofensiva estratégica do Jensen. Não se trata mais de ver quem economiza mais placas, mas de reestruturar diretamente o custo de uso da IA. Claro, essa jogada também significa que a NVIDIA precisa dizer adeus ao antigo modelo de empilhamento de placas. O Jensen está calculando outra conta: para que a era Agentic realmente se concretize em mil setores, é necessário superar o custo dos Tokens, que é uma tendência que a NVIDIA não pode ignorar. Na visão do Jensen, em vez de esperar para ser devorado por grandes empresas como Google e Meta que desenvolvem chips internamente, ou ser superada por empresas como a DeepSeek que revolucionam o mercado do lado da oferta, é melhor ser a pessoa que quebra o impasse. 4) A questão é: como a NVIDIA, após sua auto-revolução, se posicionará? O caminho é claro: passar de "vender placas gráficas" para "vender sistemas", de servir apenas algumas grandes empresas para realmente popularizar a IA. Antes, quando você comprava uma H100, a NVIDIA sempre ganhava apenas com a venda da placa gráfica. Com o Rubin, você será informado de que precisa comprar todo o sistema NVL72 - 72 GPUs, NVLink Switch, sistema de refrigeração líquida total, gabinete, e até mesmo o software correspondente, tudo embalado e vendido para você. O cálculo do Jensen também é claro: embora o custo do hardware embalado pareça mais caro, ele adiciona uma eficiência de raciocínio extrema, reduzindo o custo unitário de uso da IA para o comprador, e assim não perderá participação de mercado. Mas, mas, mas, esse modelo também eleva a barreira de entrada para pequenos e médios jogadores. Apenas grandes empresas e provedores de serviços em nuvem poderão arcar com isso, o que agravará ainda mais o monopólio do poder computacional. Dada a atual situação competitiva, isso é uma grande aposta, pois se houver problemas na produção em massa do HBM4, a AMD, Google TPU e outros poderão aproveitar a janela de oportunidade para lançar soluções alternativas, e o sonho da NVIDIA de vender sistemas pode não ser tão fácil de realizar.