Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Durante la conferencia CES, la nueva arquitectura Rubin de NVIDIA se convirtió en el centro de atención del mercado, un gran avance más allá de la arquitectura MOE, diseñada a medida para la era de la IA Agente, etc. He investigado un poco y realmente siento el sabor de la "autorrevolución" de Jensen Huang:
1) En el pasado, NVIDIA dependía de la ventaja del hardware de GPU, aprovechando el período de bonanza en el que los grandes gigantes de la IA estaban comprando poder de cómputo para entrenar grandes modelos. En ese momento, la lógica era simple: quien tuviera más tarjetas gráficas podía entrenar el mejor modelo.
Pero ahora, la guerra de la IA se ha trasladado del campo de "poder de cómputo" al de "inferencia", especialmente con la llegada de la era Agente, donde la IA necesita manejar inferencias de alta frecuencia, múltiples pasos y contextos extremadamente largos.
En este momento, los parámetros del modelo pueden alcanzar billones, y el volumen de datos es enorme. Por muy rápido que calcule la GPU, si la memoria no transfiere datos lo suficientemente rápido, la GPU se quedará inactiva, lo que se conoce como "pared de almacenamiento". En otras palabras, tener más tarjetas gráficas ya no resuelve el problema; también se necesita una alta memoria y ancho de banda para soportarlo. Rubin tiene que resolver este problema.
2) Por lo tanto, el HBM4 que Rubin lanzó por primera vez es la cuarta generación de memoria de alto ancho de banda, que puede alcanzar un ancho de banda de 22TB/s. Pero lo más crucial es que se combina con la tecnología NVLink 6 (ancho de banda dentro del rack de 260TB/s), convirtiendo lógicamente 72 tarjetas en "un único chip gigante".
¿Y eso qué significa? Antes, cuando comprabas una tarjeta gráfica, comprabas componentes independientes, y los datos se transferían entre las tarjetas como si los paquetes tuvieran que pasar por varias estaciones de transbordo. Ahora, Rubin, a través de una interconexión de alta densidad, permite que los datos fluyan entre diferentes GPUs casi sin sentir la distancia física; 72 trabajadores ya no trabajan por separado, sino que comparten un solo cerebro.
Creo que esta es la verdadera carta ganadora de Rubin: no se trata simplemente de apilar parámetros de hardware, sino de reestructurar el flujo de datos de todo el sistema.
3) Si se dice que el MOE (Modelo de Expertos Mixtos) fue un golpe de dimensión para NVIDIA por parte de nuevos competidores como DeepSeek que apilan tarjetas de manera "violenta", entonces Rubin es claramente un contraataque estratégico de Jensen Huang, no compitiendo en quién ahorra más tarjetas, sino reestructurando directamente el costo de uso de la IA. Por supuesto, este movimiento también significa que NVIDIA tiene que despedirse del viejo modelo de apilar tarjetas de manera violenta.
Jensen está calculando otra cuenta: para que la era Agente se implemente realmente en miles de industrias, debe superar el obstáculo del costo de los tokens, que es una tendencia que NVIDIA no puede detener.
Desde la perspectiva de Jensen, en lugar de esperar a ser devorado por grandes empresas como Google y Meta que desarrollan chips por su cuenta, o ser interrumpido por DeepSeek y otros que alteran el mercado del lado de la oferta, es mejor ser quien rompa el estancamiento.
4) La pregunta es, ¿cómo se posicionará NVIDIA tras su autorrevolución? El camino es claro: pasar de "vender tarjetas gráficas" a "vender sistemas", de servir a unos pocos grandes fabricantes a hacer que la IA se generalice realmente.
Antes, cuando comprabas una H100, NVIDIA siempre ganaba solo con el dinero de esa tarjeta gráfica; el futuro Rubin te dirá: tienes que comprar todo el sistema NVL72: 72 GPUs, un conmutador NVLink, un sistema de refrigeración líquida completo, un gabinete, e incluso el software correspondiente, todo empaquetado y vendido a ti.
El cálculo de Jensen también es claro: aunque parece que el costo del hardware empaquetado es más caro, se añade una eficiencia de inferencia extrema, lo que reduce el costo unitario de uso de la IA para el comprador, y naturalmente no perderá cuota de mercado.
Pero, pero, pero, este enfoque también eleva la barrera de entrada para los jugadores más pequeños. Solo las grandes empresas y los proveedores de servicios en la nube podrán permitírselo, lo que agravará aún más el monopolio del poder de cómputo. En el actual entorno competitivo, es una apuesta arriesgada, porque si hay problemas en la producción en masa del HBM4, podría ser reemplazado por soluciones alternativas lanzadas por AMD, Google TPU, etc., y el sueño de NVIDIA de vender sistemas podría no ser tan fácil de realizar.
Parte superior
Clasificación
Favoritos
