Czy się mylę, czując zmianę paradygmatu w AI? Wydaje się, że przechodzimy z świata obsesyjnie skupionego na ogólnych API LLM do takiego, w którym coraz więcej firm trenuje, optymalizuje i uruchamia własne modele oparte na otwartym kodzie źródłowym (szczególnie mniejsze, wyspecjalizowane modele) Kilka potwierdzających znaków tylko w ciągu ostatnich kilku tygodni: - @karpathy wydał nanochat do trenowania modeli w zaledwie kilku linijkach kodu - @thinkymachines uruchomił produkt do fine-tuningu - rosnąca popularność @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,... - 1M nowych repozytoriów na HF w ciągu ostatnich 90 dni (w tym pierwsze otwarte LLM od @OpenAI) A teraz @nvidia właśnie ogłosiła DGX Spark, wystarczająco potężny, aby każdy mógł dostosować swoje modele w domu. Czy się zgadzasz, czy po prostu widzę przyszłość, którą chcę, aby istniała? A także, dlaczego to się dzieje (czy to tylko pojawienie się RL/po treningu?)