Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

vLLM
🎉Gratulerer til @Zai_org-teamet med lanseringen av GLM-4.6V og GLM-4.6V-Flash — med day-0 serveringsstøtte i vLLM-oppskrifter for team som ønsker å kjøre dem på sine egne GPU-er.
GLM-4.6V fokuserer på høykvalitets multimodal resonnement med lang kontekst og native verktøy-/funksjonskall, mens GLM-4.6V-Flash er en 9B-variant tilpasset lavere latens og mindre distribusjon; vår nye vLLM-oppskrift leverer ferdige konfigurasjoner, multi-GPU-veiledning og produksjonsorienterte standardinnstillinger.
Hvis du bygger inferenstjenester og ønsker GLM-4.6V i stacken din, start her:


Z.ai8. des., 20:14
GLM-4.6V-serien er her🚀
- GLM-4.6V (106B): flaggskip visjonsspråkmodell med 128K kontekst
- GLM-4.6V-Flash (9B): ultrarask, lett versjon for lokale og lav-latens arbeidsbelastninger
Den aller første native funksjonskallingen i GLM-visjonsmodellfamilien
Vekter:
Prøv GLM-4.6V nå:
Application Programming Interface:
Teknologiblogg:
API-prising (per 1M tokens):
- GLM-4,6V: $0,6 inngang / $0,9 utgang
- GLM-4.6V-Flash: Gratis

43,37K
🎉 Gratulerer til Mistral-teamet med lanseringen av Mistral 3-familien!
Vi er stolte av å kunne dele at @MistralAI, @NVIDIAAIDev, @RedHat_AI og vLLM jobbet tett sammen for å levere full Day-0-støtte for hele Mistral 3-serien.
Dette samarbeidet muliggjorde:
• NVFP4 (llm-kompressor) optimaliserte sjekkpunkter
• Sparsomme MoE-kjerner for Mistral Large 3
• Prefill/dekod disaggregert servering
• Multimodal + lang-kontekst inferens
• Effektiv slutning på A100 / H100 / Blackwell
🙏 En stor takk til @MistralAI, @NVIDIAAIDev og @RedHat_AI for det sterke partnerskapet og ingeniørarbeidet som gjorde Day-0-optimalisering mulig.
Hvis du vil ha den raskeste og mest effektive åpen kildekode-distribusjonsveien for hele Mistral 3-serien—vLLM er klart i dag.


Mistral AI2. des., 23:08
Vi introduserer Mistral 3-familien av modeller: Frontier-intelligens i alle størrelser. Apache 2.0. Detaljer i 🧵

30,65K
Elsker dette: en bidragsyter fra fellesskapet har laget vLLM Playground for å gjøre slutninger synlige, interaktive og eksperimentvennlige.
Fra visuelle konfigurasjonsbrytere til automatisk kommandogenerering, fra GPU/M-chip-støtte til GuideLLM-benchmarking + integrasjon med LLMCompressor — det samler hele vLLM-livssyklusen i én samlet UX.
Stor ros til micyang for dette gjennomtenkte, polerte bidraget.
🔗
24,05K
Topp
Rangering
Favoritter
