我下個博客文章將在本週發布,這次的內容比平常更深入。 我將展示如何在我的Mac上使用MLX對微軟的Phi-3-mini-4k-instruct(3.8B)進行LoRA微調。 這個實驗:探索一個本地運行的3.8B模型是否可以通過在我自己的博客文章上進行訓練來“像我一樣說話”。 我已經將LoRA適配器的權重推送到Hugging Face。 但更重要的是,這篇文章將分享整個過程,以便更多的技術人員可以學習如何開始微調: - 準備訓練數據 - 訓練模型和超參數 - 評估結果 - 發布到Hugging Face 我還將分享所有所需的代碼,以便你自己動手。
14.28K