Tar jeg feil når jeg fornemmer et paradigmeskifte innen AI? Føles som om vi beveger oss fra en verden besatt av generalistiske LLM APIer til en der flere og flere selskaper trener, optimaliserer og kjører sine egne modeller bygget på åpen kildekode (spesielt mindre, spesialiserte) Noen bekreftende tegn bare de siste ukene: - @karpathy lanserte nanochat for å trene modeller med bare noen få linjer med kode - @thinkymachines lanserte et finjusterende produkt - økende popularitet til @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1 million nye repositorier på HF de siste 90 dagene (inkludert de første åpen kildekode-LLM-ene fra @OpenAI) Og nå @nvidia nettopp annonsert DGX Spark, kraftig nok til at alle kan finjustere sine egne modeller hjemme. Er du enig, eller ser jeg bare fremtiden jeg ønsker skal eksistere? Dessuten, hvorfor skjer dette (bare bruken av RL/ettertrening?)