Attualmente ci sono alcune idee su TPU e $GOOG Primo: rifiutare parametri di confronto non validi Non discutere più su quanto differiscano i parametri di GPU e TPU, quanto siano alti i costi di migrazione, chi sia più potente. Che senso ha? $GOOG non è una società di semiconduttori, e TPU non è un prodotto che intendono vendere ovunque. Hanno iniziato a pianificare quasi dieci anni fa e lo hanno fatto esclusivamente per servire il proprio business. Non hanno nemmeno abbastanza per uso interno, figuriamoci per venderlo a te. È come se Amazon gestisse la logistica, lo fa per essere più veloce, non per vendere camion. Allo stesso modo, non si può usare questo per FUD contro $nvda, dato che $goog non vende schede, come si può fare un confronto? Usare questo FUD è molto irragionevole. Secondo: il nucleo di Gemini è "capacità industriale" Tutti si concentrano su quanto sia potente il modello stesso, ma trascurano un aspetto più importante della commercializzazione: costi e velocità (Unit Economics). L'esperienza di Gemini mi dice che Google sta sfruttando il vantaggio nativo di TPU, riducendo i costi di inferenza AI al minimo, mantenendo al contempo una latenza estremamente bassa. Se l'AI diventa in futuro un "infrastruttura", per il 95% degli scenari utente (cercare informazioni, scrivere email, fare riassunti), "facile da usare, economico, risposta in tempo reale" è molto più importante di "estremamente intelligente ma lento nelle risposte". Si prega di notare che quanto sopra è un'ipotesi per il futuro, l'AI è ancora incerta, nessuno sa quale forma dovrebbe assumere in futuro. $GOOG è come la Ford o la Toyota di un tempo. Hanno introdotto la catena di montaggio (cluster TPU), creando una linea di produzione snella integrata (JAX/raffreddamento a liquido), trasformando le automobili in beni accessibili a tutte le famiglie, e non in beni di lusso per i ricchi all'inizio della loro nascita. Infine: Non ho detto che $NVDA non sia buono, né che altri modelli non funzionino. ...