Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
¿Me equivoco al percibir un cambio de paradigma en la IA?
Parece que estamos pasando de un mundo obsesionado con las API de LLM generalistas a uno en el que cada vez más empresas están entrenando, optimizando y ejecutando sus propios modelos basados en código abierto (especialmente los más pequeños y especializados)
Algunas señales de validación en las últimas semanas:
- @karpathy lanzado nanochat para entrenar modelos en solo unas pocas líneas de código
- @thinkymachines lanzó un producto de ajuste fino
- creciente popularidad de @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,...
- 1 millón de nuevos repositorios en HF en los últimos 90 días (incluidos los primeros LLM de código abierto de @OpenAI)
Y ahora, @nvidia acaba de anunciar DGX Spark, lo suficientemente potente como para que todos puedan ajustar sus propios modelos en casa.
¿Estarías de acuerdo, o solo estoy viendo el futuro que quiero que exista? Además, ¿por qué está sucediendo esto (solo el advenimiento de RL / post-entrenamiento?)

Populares
Ranking
Favoritas