Olenko väärässä aistiessani paradigman muutoksen tekoälyssä? Tuntuu siltä, että olemme siirtymässä yleisten LLM-sovellusliittymien pakkomielteisestä maailmasta sellaiseen, jossa yhä useammat yritykset kouluttavat, optimoivat ja käyttävät omia avoimeen lähdekoodiin perustuvia mallejaan (erityisesti pienempiä, erikoistuneita) Joitakin vahvistavia merkkejä viime viikkoina: - @karpathy julkaissut nanochatin, joka kouluttaa malleja vain muutamalla koodirivillä - @thinkymachines lanseerasi hienosäätötuotteen - @vllm_project, @sgl_project, @PrimeIntellect, Lorasin ja trl:n kasvava suosio,... - 1 miljoona uutta arkistoa HF:ssä viimeisen 90 päivän aikana (mukaan lukien ensimmäiset avoimen lähdekoodin LLM:t vuodelta @OpenAI) Ja nyt @nvidia juuri julkisti DGX Sparkin, joka on tarpeeksi tehokas, jotta jokainen voi hienosäätää omia mallejaan kotona. Oletko samaa mieltä, vai näenkö vain tulevaisuuden, jonka haluan olevan olemassa? Lisäksi, miksi näin tapahtuu (vain RL:n/post-harjoittelun tulo?)