Me encanta esto: un colaborador de la comunidad creó vLLM Playground para hacer que la inferencia sea visible, interactiva y amigable para experimentos. Desde interruptores visuales de configuración hasta generación automática de comandos, desde soporte GPU/M-chip hasta benchmarking GuideLLM + integración con LLMCompressor — reúne todo el ciclo de vida de vLLM en una única UX unificada. Un enorme reconocimiento a micyang por esta contribución tan reflexiva y pulida. 🔗