Atualmente, algumas ideias sobre TPU e $GOOG Primeiro: rejeitar comparações inválidas de parâmetros Não adianta mais discutir quão diferentes são os parâmetros do GPU e do TPU, quão altos são os custos de migração, ou quem é mais poderoso. Qual é o sentido disso? $GOOG não é uma empresa de semicondutores, e o TPU não é um produto que está sendo preparado para ser vendido por aí. Eles começaram a se preparar há quase dez anos e isso foi totalmente para servir ao seu próprio negócio. Eles mal conseguem usar isso para si mesmos, quanto mais para vender para você? É como a Amazon fazendo logística, é para ser mais rápido para si mesma, e não para vender caminhões. Da mesma forma, isso não pode ser usado para FUD sobre $nvda vendendo placas, $goog não vende placas, como comparar? Usar esse FUD é muito irracional. Segundo: o núcleo do Gemini é a "capacidade industrial" Todo mundo está focado em quão bom é o modelo em si, mas ignora um ponto mais importante para a implementação comercial: custo e velocidade (Economia Unitária). A experiência com o Gemini me diz que o Google está aproveitando a vantagem nativa do TPU para reduzir o custo da inferência de IA ao mínimo, mantendo uma latência extremamente baixa. Se a IA se tornar uma "infraestrutura" no futuro, para 95% dos cenários de usuários (pesquisar informações, escrever e-mails, fazer resumos), "fácil de usar, barato, resposta em tempo real" é muito mais importante do que "extremamente inteligente, mas lento na resposta". Por favor, note que o acima é uma suposição sobre o futuro, a IA ainda está indefinida, ninguém sabe exatamente como será sua forma no futuro. $GOOG é como a Ford ou a Toyota de antigamente. Eles introduziram a linha de montagem (clusters TPU), criaram uma linha de produção enxuta integrada de hardware e software (JAX/refrigeração líquida), transformando o carro em um bem acessível para todos, e não em um luxo para ricos desde o início. Por fim: Eu não disse que $NVDA é ruim, nem que outros modelos não funcionam. ...