Estou errado em sentir uma mudança de paradigma na IA? Parece que estamos a passar de um mundo obcecado por APIs LLM generalistas para um onde cada vez mais empresas estão a treinar, otimizar e executar os seus próprios modelos construídos em código aberto (especialmente os menores e especializados) Alguns sinais de validação apenas nas últimas semanas: - @karpathy lançou o nanochat para treinar modelos em apenas algumas linhas de código - @thinkymachines lançou um produto de ajuste fino - crescente popularidade de @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1M de novos repositórios no HF nos últimos 90 dias (incluindo os primeiros LLMs de código aberto da @OpenAI) E agora, @nvidia acaba de anunciar o DGX Spark, poderoso o suficiente para que todos possam ajustar os seus próprios modelos em casa. Você concorda, ou estou apenas a ver o futuro que quero que exista? Além disso, por que isso está a acontecer (apenas o advento do RL/ajuste pós-treinamento?)