Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¿Estoy equivocado al sentir un cambio de paradigma en la IA?
Parece que estamos pasando de un mundo obsesionado con las APIs de LLM generalistas a uno donde cada vez más empresas están entrenando, optimizando y ejecutando sus propios modelos basados en código abierto (especialmente los más pequeños y especializados)
Algunas señales que validan esto solo en las últimas semanas:
- @karpathy lanzó nanochat para entrenar modelos en solo unas pocas líneas de código
- @thinkymachines lanzó un producto de ajuste fino
- creciente popularidad de @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,...
- 1M de nuevos repositorios en HF en los últimos 90 días (incluyendo los primeros LLM de código abierto de @OpenAI)
Y ahora, @nvidia acaba de anunciar DGX Spark, lo suficientemente potente para que todos puedan ajustar sus propios modelos en casa.
¿Estarías de acuerdo, o solo estoy viendo el futuro que quiero que exista? Además, ¿por qué está sucediendo esto (solo el advenimiento de RL/post-entrenamiento?)

Parte superior
Clasificación
Favoritos