Uwielbiam to: społeczny współtwórca stworzył vLLM Playground, aby uczynić inferencję widoczną, interaktywną i przyjazną do eksperymentowania. Od wizualnych przełączników konfiguracyjnych po automatyczne generowanie poleceń, od wsparcia dla GPU/M-chipów po benchmarking GuideLLM + integrację LLMCompressor — to wszystko łączy cały cykl życia vLLM w jedną zjednoczoną UX. Ogromne brawa dla micyang za ten przemyślany, dopracowany wkład. 🔗