CES konferansı sırasında, NVIDIA'nın yeni piyasaya süren Rubin mimarisi son pazar tartışmalarının odağı haline geldi, MOE mimarisine ek olarak başka büyük bir atılım nedir, Ajanic AI dönemine göre neler özelleştirildiği vb., daha yakından baktım ve Lao Huang'ın "kendini devrim" kokusunu hissettim: 1) Geçmişte Nvidia, büyük yapay zeka devlerinin büyük modelleri eğitmek için telaşla hesaplama gücü satın aldığı paylama dönemine başvurarak GPU donanım avantajlarına güveniyordu. O zamanlar mantık çok basitti, daha fazla grafik kartı olan en iyi modeli eğitebilirdi. Ancak şimdi yapay zeka savaşı, özellikle Ajanik dönemin gelişinden sonra "hesaplama gücü" savaş alanından "çıkarım"a kaydı; yapay zeka yüksek frekanslı, çok adımlı ve ultra uzun bağlamsal akıl yürütme ile başa çıkmak zorunda. Şu anda model parametreleri trilyonlar, veri aktarım hızı son derece büyük; GPU ne kadar hızlı olursa olsun, bellek veri yeterince hızlı değilse, GPU boşta durmak zorunda kalır, yani "depolama duvarı", yani grafik kartı artık sorunu çözemez ve destek için yüksek video bellek ve bant genişliğine ihtiyaç duyar. Rubin'in çözmeye çalıştığı şey buydu. 2) Bu nedenle, Rubin'in ilk HBM4'ü dördüncü nesil yüksek bant genişliğine sahip belleği destekleyebilir ve bu da bant genişliğini 22TB/s'ye ulaştırabilir. Ama daha da önemlisi, NVLink 6 teknolojisiyle (rafta 260TB/s bant genişliği) iş birliği yapıyor; bu teknoloji mantıken 72 kartı "dev bir çip"e dönüştürüyor. Bu ne anlama geliyor? Geçmişte, bir ekran kartı aldığınızda bağımsız bileşenler satın alınırdı ve kartlar arasındaki veri iletimi, bir kurye gibi birkaç aktarım istasyonundan geçmesi gibiydi. Şimdi Rubin, neredeyse hiç fiziksel mesafe olmadan GPU'lar arasında veri akışı sağlamak için son derece yüksek yoğunluklu bağlantılar kullanıyor ve 72 çalışan artık ayrı çalışmıyor, aynı beyni paylaşıyor. Bence bu Rubin'in gerçek öldürücü hamlesi: sadece donanım parametrelerini üst üste yığmakla kalmayıp, tüm sistemin veri akışını yeniden yapılandırmak. 3) MOE (Hibrit Uzman Model Mimarisi), DeepSeek gibi yükselen yıldızların Nvidia'nın "şiddetli kart biriktirme" iş modeline boyut azaltma darbesi ise, Rubin nasıl bakarsanız bakın Lao Huang'ın stratejik bir karşı saldırısıdır. Tabii ki, bu numara aynı zamanda Nvidia'nın eski şiddetli kart yığma modeline veda etmek zorunda olduğu anlamına geliyor. Lao Huang başka bir hesap hesaplıyor, eğer Agent dönemi gerçekten binlerce endüstriye ulaşıyorsa, Nvidia'nın sürdüremeyeceği genel eğilim olan token maliyet engelini aşması gerekir. Lao Huang'ın görüşüne göre, Google, Meta ve diğer büyük üreticilerin pazara girmesini ya da DeepSeek ve diğer modeller tarafından alt üst edilmeyi beklemek yerine, oyunu bozan taraf olmak için inisiyatif almak daha iyidir. 4) Soru şu: Nvidia kendi kendine nasıl başa çıkacak? Yol da çok açık; "grafik kartı satmak"tan "sistem satmaya", birkaç büyük üreticiye hizmet vermekten yapay zekayı gerçekten popüler hale getirmeye. Geçmişte, H100'ü aldığınızda Nvidia ekran kartından para kazanıyordu ve Rubin size gelecekte söyleyecek: 72 GPU, NVLink Switch, tam sıvı soğutma sistemi, dolaplar ve hatta destekleyici yazılım yığınları gibi tam bir NVL72 raf seti satın almanız gerekiyor, hepsi paketlenmiş ve size satılmış. Lao Huang'ın abakusu da çok açık, paketlenmiş donanımın maliyeti daha pahalı görünüyor, ancak aşırı akıl yürütme verimliliği eklendiğinde, alıcının yapay zekasının birim maliyeti düşüyor ve doğal olarak pazar payı kaybetmeyecek. Ancak küçük ve orta ölçekli oyuncular için eşik de daha yüksek. Sadece büyük üreticiler ve bulut hizmet sağlayıcıları oynama imkanı bulabiliyor, bu da hesaplama gücünün tekelini daha da kötüleştirecek. Mevcut rekabetçi durumda, bu büyük bir kumar olarak adlandırılabilir, çünkü HBM4'ün seri üretiminde bir sorun yaşandığında, AMD, Google TPU ve diğer alternatifler tarafından piyasaya sürülecek ve bu dönemi ele geçiren alternatifler ile değiştirilecek ve Nvidia'nın sistemi satma hayali gerçekleşmesi o kadar kolay olmayabilir.