На выставке CES компания NVIDIA представила новую архитектуру Rubin, которая стала центром обсуждений на рынке. Это не просто еще одно значительное достижение после архитектуры MOE, это также разработка, специально созданная для эпохи Agentic AI. Я углубился в детали и действительно почувствовал «саморазрушение» старого Хуаня: 1) Ранее NVIDIA полагалась на преимущества аппаратного обеспечения GPU, воспользовавшись периодом, когда все крупные AI-компании безумно закупали вычислительные мощности для обучения больших моделей. В то время логика была проста: у кого больше видеокарт, тот может обучить лучшую модель. Но теперь война AI уже переместилась с поля «вычислительной мощности» на «инференс», особенно с приходом эпохи Agentic, когда AI необходимо обрабатывать высокочастотные, многошаговые и сверхдлинные контексты. В это время параметры модели могут достигать триллионов, а объем данных огромен. GPU может работать очень быстро, но если память не передает данные достаточно быстро, GPU будет простаивать, это и есть «стена памяти». Другими словами, наличие большого количества видеокарт уже не решает проблему, также необходимы высокая память и пропускная способность для поддержки. Rubin должен решить эту проблему. 2) Поэтому Rubin впервые представил HBM4, который поддерживает четвертое поколение высокоскоростной памяти, позволяя достичь пропускной способности 22 ТБ/с. Но более важно то, что он работает в сочетании с технологией NVLink 6 (пропускная способность в рамках стойки 260 ТБ/с), что логически превращает 72 карты в «один гигантский чип». Что это означает? Ранее, когда вы покупали видеокарту, вы приобретали отдельные компоненты, и данные передавались между картами, как если бы посылки проходили через несколько промежуточных станций. Теперь Rubin с помощью высокой плотности соединений позволяет данным практически не ощущать физического расстояния при передаче между различными GPU, 72 работника больше не работают по отдельности, а делят один мозг. Я думаю, что это и есть настоящий козырь Rubin: не просто накапливать аппаратные параметры, а полностью перестраивать поток данных в системе. 3) Если MOE (модель смешанных экспертов) является понижением уровня для NVIDIA от таких новых игроков, как DeepSeek, которые накапливают «жесткие карты», то Rubin выглядит как стратегический ответ старого Хуаня, который не соревнуется с вами в том, кто экономит больше карт, а прямо перестраивает стоимость использования AI. Конечно, этот шаг также означает, что NVIDIA окончательно прощается со старой моделью «жесткого накопления карт». Старый Хуань считает, что, вместо того чтобы ждать, когда Google, Meta и другие крупные компании начнут разрабатывать свои чипы и захватывать рынок, или когда DeepSeek и другие изменят рынок предложения, лучше самому стать тем, кто разрывает ситуацию. 4) Вопрос в том, как NVIDIA, после саморазрушения, будет себя вести? Путь тоже очень ясен: от «продажи видеокарт» к «продаже систем», от обслуживания немногих крупных компаний к реальному распространению AI. Ранее, когда вы покупали H100, NVIDIA зарабатывала только на продаже видеокарт, а Rubin теперь скажет вам: вам нужно купить целую систему NVL72 — 72 GPU, переключатель NVLink, полностью жидкостное охлаждение, шкаф, даже включая сопутствующий программный стек, все упаковано и продано вам. Старый Хуань тоже очень четко понимает, что, хотя кажется, что стоимость упакованного оборудования выше, но добавленная высокая эффективность инференса снижает единичные затраты на использование AI для покупателя, и, следовательно, не потеряет долю рынка. Но, но, но, эта схема также повышает барьер для малых и средних игроков. Только крупные компании и облачные сервисы смогут это себе позволить, что еще больше усугубит монополию на вычислительные мощности. В текущих условиях конкуренции это можно считать большой ставкой, потому что, если с массовым производством HBM4 возникнут проблемы, AMD, Google TPU и другие могут воспользоваться моментом и предложить альтернативные решения, и тогда мечта NVIDIA о продаже систем может не так легко осуществиться.