Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Haotian | CryptoInsight
Investigador independiente | Asesor @ambergroup_io | Investigador Especial @IOSGVC| Ciencia Hardcore | Anteriormente:@peckshield | DMs para Collab| La comunidad solo está abierta a suscriptores de Twitter
Durante la conferencia CES, la nueva arquitectura Rubin de NVIDIA se convirtió en el centro de atención del mercado, un gran avance más allá de la arquitectura MOE, diseñada a medida para la era de la IA Agente, etc. He investigado un poco y realmente siento el sabor de la "autorrevolución" de Jensen Huang:
1) En el pasado, NVIDIA dependía de la ventaja del hardware de GPU, aprovechando el período de bonanza en el que los grandes gigantes de la IA estaban comprando poder de cómputo para entrenar grandes modelos. En ese momento, la lógica era simple: quien tuviera más tarjetas gráficas podía entrenar el mejor modelo.
Pero ahora, la guerra de la IA se ha trasladado del campo de "poder de cómputo" al de "inferencia", especialmente con la llegada de la era Agente, donde la IA necesita manejar inferencias de alta frecuencia, múltiples pasos y contextos extremadamente largos.
En este momento, los parámetros del modelo pueden alcanzar billones, y el volumen de datos es enorme. Por muy rápido que calcule la GPU, si la memoria no transfiere datos lo suficientemente rápido, la GPU se quedará inactiva, lo que se conoce como "pared de almacenamiento". En otras palabras, tener más tarjetas gráficas ya no resuelve el problema; también se necesita una alta memoria y ancho de banda para soportarlo. Rubin tiene que resolver este problema.
2) Por lo tanto, el HBM4 que Rubin lanzó por primera vez es la cuarta generación de memoria de alto ancho de banda, que puede alcanzar un ancho de banda de 22TB/s. Pero lo más crucial es que se combina con la tecnología NVLink 6 (ancho de banda dentro del rack de 260TB/s), convirtiendo lógicamente 72 tarjetas en "un único chip gigante".
¿Y eso qué significa? Antes, cuando comprabas una tarjeta gráfica, comprabas componentes independientes, y los datos se transferían entre las tarjetas como si los paquetes tuvieran que pasar por varias estaciones de transbordo. Ahora, Rubin, a través de una interconexión de alta densidad, permite que los datos fluyan entre diferentes GPUs casi sin sentir la distancia física; 72 trabajadores ya no trabajan por separado, sino que comparten un solo cerebro.
Creo que esta es la verdadera carta ganadora de Rubin: no se trata simplemente de apilar parámetros de hardware, sino de reestructurar el flujo de datos de todo el sistema.
3) Si se dice que el MOE (Modelo de Expertos Mixtos) fue un golpe de dimensión para NVIDIA por parte de nuevos competidores como DeepSeek que apilan tarjetas de manera "violenta", entonces Rubin es claramente un contraataque estratégico de Jensen Huang, no compitiendo en quién ahorra más tarjetas, sino reestructurando directamente el costo de uso de la IA. Por supuesto, este movimiento también significa que NVIDIA tiene que despedirse del viejo modelo de apilar tarjetas de manera violenta.
Jensen está calculando otra cuenta: para que la era Agente se implemente realmente en miles de industrias, debe superar el obstáculo del costo de los tokens, que es una tendencia que NVIDIA no puede detener.
Desde la perspectiva de Jensen, en lugar de esperar a ser devorado por grandes empresas como Google y Meta que desarrollan chips por su cuenta, o ser interrumpido por DeepSeek y otros que alteran el mercado del lado de la oferta, es mejor ser quien rompa el estancamiento.
4) La pregunta es, ¿cómo se posicionará NVIDIA tras su autorrevolución? El camino es claro: pasar de "vender tarjetas gráficas" a "vender sistemas", de servir a unos pocos grandes fabricantes a hacer que la IA se generalice realmente.
Antes, cuando comprabas una H100, NVIDIA siempre ganaba solo con el dinero de esa tarjeta gráfica; el futuro Rubin te dirá: tienes que comprar todo el sistema NVL72: 72 GPUs, un conmutador NVLink, un sistema de refrigeración líquida completo, un gabinete, e incluso el software correspondiente, todo empaquetado y vendido a ti.
El cálculo de Jensen también es claro: aunque parece que el costo del hardware empaquetado es más caro, se añade una eficiencia de inferencia extrema, lo que reduce el costo unitario de uso de la IA para el comprador, y naturalmente no perderá cuota de mercado.
Pero, pero, pero, este enfoque también eleva la barrera de entrada para los jugadores más pequeños. Solo las grandes empresas y los proveedores de servicios en la nube podrán permitírselo, lo que agravará aún más el monopolio del poder de cómputo. En el actual entorno competitivo, es una apuesta arriesgada, porque si hay problemas en la producción en masa del HBM4, podría ser reemplazado por soluciones alternativas lanzadas por AMD, Google TPU, etc., y el sueño de NVIDIA de vender sistemas podría no ser tan fácil de realizar.
821
Finalmente, @KaitoAI fue eliminado por Elon, Kaito nunca habría imaginado que el que lo mataría algún día sería su orgullosa "corona de AI". ¿De dónde viene esto?
Ayer, el responsable del producto X, @nikitabier, anunció oficialmente que se prohibirán completamente aquellos que generen basura (Spam) de AI para ganar puntos mediante el uso de la API del protocolo InfoFi.
Y este golpe directo afecta precisamente a lo que muchos se atreven a criticar, el $KAITO que se jacta de ser el origen de infoFi.
1) El éxito y el fracaso de ser "parásito"
La narrativa central de Kaito era muy atractiva, utilizando AI para organizar datos en X y tokenizarlos (Yaps), añadiendo una capa de mecanismo de incentivos. De esta manera, la plataforma X se convirtió en un campo de minas para muchos jugadores, disfrutando de un gran momento. Pero esta lógica de Kaito tiene un error fatal: sus activos de "datos" subyacentes no le pertenecen.
En otras palabras, el sistema de puntos Yaps de Kaito se basa esencialmente en un protocolo "parásito" sobre la fuente de datos centralizada X.
En las primeras etapas de AI, Grok de X también necesitaba datos y comercializarse, @elonmusk hizo la vista gorda ante el comportamiento de Kaito de aprovecharse de sus propios datos para emitir monedas, pero cuando Gemini fue completamente integrado en Gmail Drive, Elon no pudo quedarse quieto, ¿cómo podría permitir que otros durmieran a su lado?
2) La fuente de información "contaminada" de Grok
Debemos ver un hecho claro: X ya no es simplemente una red social, sino el "mina de datos privada" más crucial para entrenar el gran modelo Grok de xAI. En la carrera armamentista con gigantes de AI como Google y OpenAI, la única ventaja competitiva de X es "el pensamiento humano real más en tiempo real y fresco del mundo".
Sin embargo, protocolos como Kaito, que tienen mecanismos de incentivos (Yaps), se han convertido objetivamente en una "fuente de contaminación" para el ecosistema de X, ya que para obtener puntos, muchos bots y estudios utilizan AI para generar comentarios basura y falsas interacciones.
¿Cómo podría Elon permitir que Grok se alimentara de estos "datos sintéticos" generados por AI y ruido basura? Además, esta falsedad ha hecho que muchas "personas reales" no quieran interactuar. Sin duda, para preservar el valioso entorno de producción de datos de X, Elon debe eliminar estos "protocolos parásitos" que crean prosperidad falsa.
3) ¿Aumentará el valor de Yaps?
A corto plazo, Kaito ha perdido la "perspectiva divina" de capturar automáticamente datos de toda la red, lo que seguramente lo llevará a una espiral de muerte, pero a largo plazo, ¿podría ser esto una actualización forzada de "desinflar burbujas"?
Esto obliga a Kaito a establecer un mecanismo de selección de valor resistente a las brujas.
Kaito finalmente se verá obligado a redirigir los incentivos de Yaps hacia usuarios reales, hacia contenido de alta calidad, que es en realidad la dirección que ya tenía en su filosofía. No está claro qué tipo de solución de reemplazo humano será, tal vez los usuarios envíen contenido de respaldo de forma proactiva, validado por una DAO comunitaria, etc.
Aparentemente, esto aumentará los umbrales y costos de revisión y recompensa, pero como un proyecto líder de infoFi con un valor de mercado de 500-600 millones de dólares, es hora de hacer reformas drásticas para que su virtud esté a la altura.
Eso es todo.
En mi opinión, Elon no está atacando intencionadamente a Crypto, X no puede permitir que Grok sea golpeado sin defensa en la gran narrativa de desafiar el dominio de Google AI, y todos los protocolos de terceros que interfieren con la pureza de los datos y crean prosperidad falsa están destinados a convertirse en víctimas.
Y para toda la pista de InfoFi, el destino de Kaito es solo el comienzo; cualquier protocolo basado en "aprovechar" datos de Web2 debe pensar cuidadosamente en dónde está su Plan B.

Nikita Bier15 ene, 23:39
Estamos revisando nuestras políticas de API para desarrolladores:
Ya no permitiremos aplicaciones que recompensen a los usuarios por publicar en X (también conocido como "infofi"). Esto ha llevado a una cantidad tremenda de contenido de IA de baja calidad y spam de respuestas en la plataforma.
Hemos revocado el acceso a la API de estas aplicaciones, por lo que tu experiencia en X debería empezar a mejorar pronto (una vez que los bots se den cuenta de que ya no les están pagando).
Si tu cuenta de desarrollador fue terminada, por favor contáctanos y te ayudaremos a hacer la transición de tu negocio a Threads y Bluesky.
906
Ahora, decir que la mayor tendencia para 2026 es la fusión entre Crypto y TradFi no debería ser controvertido, ¿verdad?
En el último mes, ya ha habido muchos ejemplos: Coinbase impulsando su estrategia de plataforma de trading todo en uno, Nasdaq iniciando un mecanismo de trading de 5*23 horas, a16z recaudando $15B con la vista puesta en la fusión de AI + Crypto, la profunda integración del ecosistema de Solana y el producto X Smart Cashtags... etc.
En medio de esta gran obra de fusión entre Crypto y TradFi, actualmente solo veo dos certezas:
1) $ETH sigue siendo indiscutiblemente el "rey de la capa de liquidación", gracias a la escala del TVL de stablecoins y al campo de pruebas de RWA en el que confían las instituciones, aquí es donde el Old Money se siente más seguro como un tesoro en la cadena;
2) $SOL, bajo la nueva posición de "capa de infraestructura ICM", se ha inclinado hacia una ruta de fusión "de consumo de productos", ya sea la narrativa de PayFi o la tokenización de activos RWA, Solana se centra en la eficiencia de liquidez de alta frecuencia y bajo costo, que también es el mejor canal para que TradFi llegue al público.
2,76K
Parte superior
Clasificación
Favoritos
