¿Estoy equivocado al sentir un cambio de paradigma en la IA? Parece que estamos pasando de un mundo obsesionado con las APIs de LLM generalistas a uno donde cada vez más empresas están entrenando, optimizando y ejecutando sus propios modelos basados en código abierto (especialmente los más pequeños y especializados) Algunas señales que validan esto solo en las últimas semanas: - @karpathy lanzó nanochat para entrenar modelos en solo unas pocas líneas de código - @thinkymachines lanzó un producto de ajuste fino - creciente popularidad de @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1M de nuevos repositorios en HF en los últimos 90 días (incluyendo los primeros LLM de código abierto de @OpenAI) Y ahora, @nvidia acaba de anunciar DGX Spark, lo suficientemente potente para que todos puedan ajustar sus propios modelos en casa. ¿Estarías de acuerdo, o solo estoy viendo el futuro que quiero que exista? Además, ¿por qué está sucediendo esto (solo el advenimiento de RL/post-entrenamiento?)