Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Czy się mylę, czując zmianę paradygmatu w AI?
Wydaje się, że przechodzimy z świata obsesyjnie skupionego na ogólnych API LLM do takiego, w którym coraz więcej firm trenuje, optymalizuje i uruchamia własne modele oparte na otwartym kodzie źródłowym (szczególnie mniejsze, wyspecjalizowane modele)
Kilka potwierdzających znaków tylko w ciągu ostatnich kilku tygodni:
- @karpathy wydał nanochat do trenowania modeli w zaledwie kilku linijkach kodu
- @thinkymachines uruchomił produkt do fine-tuningu
- rosnąca popularność @vllm_project, @sgl_project, @PrimeIntellect, Loras, trl,...
- 1M nowych repozytoriów na HF w ciągu ostatnich 90 dni (w tym pierwsze otwarte LLM od @OpenAI)
A teraz @nvidia właśnie ogłosiła DGX Spark, wystarczająco potężny, aby każdy mógł dostosować swoje modele w domu.
Czy się zgadzasz, czy po prostu widzę przyszłość, którą chcę, aby istniała? A także, dlaczego to się dzieje (czy to tylko pojawienie się RL/po treningu?)

Najlepsze
Ranking
Ulubione