Me encanta esto: un colaborador de la comunidad construyó vLLM Playground para hacer que la inferencia sea visible, interactiva y amigable para experimentar. Desde interruptores de configuración visual hasta generación automática de comandos, desde soporte para GPU/M-chip hasta benchmarking de GuideLLM + integración de LLMCompressor — trae todo el ciclo de vida de vLLM en una experiencia de usuario unificada. Un gran reconocimiento a micyang por esta contribución reflexiva y pulida. 🔗