Mein nächster Blogbeitrag erscheint diese Woche und ist viel tiefgehender als gewöhnlich. Ich werde erklären, wie ich Microsofts Phi-3-mini-4k-instruct (3,8B) mit LoRA auf meinem Mac unter Verwendung von MLX feinjustiert habe. Das Experiment: zu erkunden, ob ein 3,8B-Modell, das lokal läuft, so feinjustiert werden kann, dass es "wie ich spreche", indem ich es mit meinen eigenen Blogbeiträgen trainiere. Ich habe bereits die LoRA-Adaptergewichte zu Hugging Face hochgeladen. Aber noch wichtiger ist, dass der Beitrag den gesamten Prozess teilen wird, damit technisch versierte Leute lernen können, wie man mit dem Fein-Tuning beginnt: - Vorbereitung der Trainingsdaten - Training des Modells und Hyperparameter - Auswertung der Ergebnisse - Veröffentlichung auf Hugging Face Und ich werde den gesamten Code teilen, der erforderlich ist, um es selbst zu tun.
14,89K