Trend-Themen
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Mein nächster Blogbeitrag erscheint diese Woche und ist viel tiefgehender als gewöhnlich.
Ich werde erklären, wie ich Microsofts Phi-3-mini-4k-instruct (3,8B) mit LoRA auf meinem Mac unter Verwendung von MLX feinjustiert habe.
Das Experiment: zu erkunden, ob ein 3,8B-Modell, das lokal läuft, so feinjustiert werden kann, dass es "wie ich spreche", indem ich es mit meinen eigenen Blogbeiträgen trainiere.
Ich habe bereits die LoRA-Adaptergewichte zu Hugging Face hochgeladen.
Aber noch wichtiger ist, dass der Beitrag den gesamten Prozess teilen wird, damit technisch versierte Leute lernen können, wie man mit dem Fein-Tuning beginnt:
- Vorbereitung der Trainingsdaten
- Training des Modells und Hyperparameter
- Auswertung der Ergebnisse
- Veröffentlichung auf Hugging Face
Und ich werde den gesamten Code teilen, der erforderlich ist, um es selbst zu tun.

14,89K
Top
Ranking
Favoriten