🚀 很高興分享我們的論文 "Zebra-Llama: Towards Extremely Efficient Hybrid Models" 已被 #NeurIPS2025 接受! 🎉 在 AMD,我們介紹了一系列基於 MLA + Mamba 的混合 LLM(1B、3B、8B),這些模型由預訓練的 Transformers 組成 — 無需完全重新訓練。 🔗 了解更多: 📄 論文: 💻 代碼: 🤗 HF 模型: 📝 博客: #HybridModels #EfficientAI #LLMs #DeepLearning #ROCm #HuggingFace #OpenSource #AIResearch #AMD @EmadBarsoumPi @vikramappia