我下一个博客文章将在本周发布,这次的内容比平常更深入。 我将展示如何在我的Mac上使用MLX对微软的Phi-3-mini-4k-instruct(3.8B)进行LoRA微调。 这个实验:探索一个本地运行的3.8B模型是否可以通过在我自己的博客文章上进行训练来“像我一样说话”。 我已经将LoRA适配器的权重推送到Hugging Face。 但更重要的是,这篇文章将分享整个过程,以便更多的技术人员可以学习如何开始微调: - 准备训练数据 - 训练模型和超参数 - 评估结果 - 发布到Hugging Face 我还将分享所有所需的代码,以便你自己动手。
14.9K