Ho torto a percepire un cambiamento di paradigma nell'AI? Sembra che stiamo passando da un mondo ossessionato dalle API LLM generaliste a uno in cui sempre più aziende stanno addestrando, ottimizzando e gestendo i propri modelli basati su open source (soprattutto quelli più piccoli e specializzati). Alcuni segnali di validazione solo nelle ultime settimane: - @karpathy ha rilasciato nanochat per addestrare modelli in poche righe di codice - @thinkymachines ha lanciato un prodotto di fine-tuning - crescente popolarità di @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1M di nuovi repository su HF negli ultimi 90 giorni (inclusi i primi LLM open-source di @OpenAI) E ora, @nvidia ha appena annunciato DGX Spark, abbastanza potente per permettere a tutti di fare fine-tuning dei propri modelli a casa. Saresti d'accordo, o sto solo vedendo il futuro che voglio esista? Inoltre, perché sta accadendo questo (solo l'avvento di RL/post-training?)