Har jag fel när jag anar ett paradigmskifte inom AI? Det känns som att vi går från en värld besatt av generalistiska LLM API:er till en där fler och fler företag tränar, optimerar och kör sina egna modeller byggda på öppen källkod (särskilt mindre, specialiserade sådana) Några bekräftande tecken bara under de senaste veckorna: - @karpathy släppt nanochat för att träna modeller på bara några rader kod - @thinkymachines lanserat en finjusterande produkt - ökande popularitet för @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1 miljon nya lagringsplatser på HF under de senaste 90 dagarna (inklusive de första LLM:erna med öppen källkod från @OpenAI) Och nu har @nvidia precis tillkännagivit DGX Spark, som är tillräckligt kraftfull för att alla ska kunna finjustera sina egna modeller hemma. Håller du med, eller ser jag bara den framtid jag vill ska finnas? Dessutom, varför händer detta (bara tillkomsten av RL/post-training?)