Några aktuella tankar om TPU och $GOOG Först: Förkasta ogiltig parameterbenchmarking Bråka inte om hur mycket GPU- och TPU-parametrarna skiljer sig, hur dyr migreringen är och vem som är bäst. Vad är poängen med detta? $GOOG är inte ett halvledarföretag från början, och TPU är inte en vara som är redo att säljas överallt. De började bygga ut för nästan ett decennium sedan och är helt och hållet för att tjäna sin verksamhet. De har inte ens tillräckligt av det här själva, så hur ska de ha tid att sälja det till dig? Det är som att Amazon sköter logistik, för sin egen hastighet, inte för att sälja lastbilar. På samma sätt kan detta inte användas för att FUD $nvda Dazi för att sälja kort, $goog inte för att sälja kort, hur ska man jämföra? Det är orimligt av dig att använda denna FUD Dazi. För det andra: Kärnan i Gemini är "industrialiseringsförmåga" Alla rullar ihop själva modellen, men ignorerar den viktigare punkten med kommersiell landning: kostnad och hastighet (enhetsekonomi). Geminis erfarenhet säger mig att Google utnyttjar TPU:ernas inbyggda fördelar för att pressa kostnaden för AI-inferensen till golvpriset samtidigt som latensen hålls extremt låg. Om AI blir en "infrastruktur" i framtiden är "lätt att använda, billigt och svarar i realtid" mycket viktigare än "extremt smart men oresponsiv" i 95 % av användarscenarierna (kontrollera information, skriva mejl och göra sammanfattningar). Observera att ovanstående är en hypotes om framtiden, AI är obeslutsam och ingen vet hur dess framtid bör se ut. $GOOG Det är som årets Ford eller Toyota. De införde monteringslinjer (TPU-kluster) och skapade en lean produktionslinje (JAX/vätskekylning) som integrerade mjukvara och hårdvara, vilket gjorde bilar till en prisvärd produkt för varje hushåll, snarare än en lyxvara för de rika i början av sin födelse. Till sist: Jag sa inte att $NVDA är dålig, eller att andra modeller inte kan det. ...