¿Me equivoco al percibir un cambio de paradigma en la IA? Parece que estamos pasando de un mundo obsesionado con las API de LLM generalistas a uno en el que cada vez más empresas están entrenando, optimizando y ejecutando sus propios modelos basados en código abierto (especialmente los más pequeños y especializados) Algunas señales de validación en las últimas semanas: - @karpathy lanzado nanochat para entrenar modelos en solo unas pocas líneas de código - @thinkymachines lanzó un producto de ajuste fino - creciente popularidad de @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1 millón de nuevos repositorios en HF en los últimos 90 días (incluidos los primeros LLM de código abierto de @OpenAI) Y ahora, @nvidia acaba de anunciar DGX Spark, lo suficientemente potente como para que todos puedan ajustar sus propios modelos en casa. ¿Estarías de acuerdo, o solo estoy viendo el futuro que quiero que exista? Además, ¿por qué está sucediendo esto (solo el advenimiento de RL / post-entrenamiento?)