Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Il mio prossimo post sul blog uscirà questa settimana e sarà un'analisi molto più approfondita del solito.
Camminerò attraverso come ho ottimizzato il Phi-3-mini-4k-instruct (3.8B) di Microsoft con LoRA sul mio Mac utilizzando MLX.
L'esperimento: esplorare se un modello da 3.8B che gira localmente può essere ottimizzato per "parlare come me" addestrandolo sui miei stessi post del blog.
Ho già caricato i pesi dell'adattatore LoRA su Hugging Face.
Ma, cosa più importante, il post condividerà l'intero processo affinché le persone più tecniche possano imparare come iniziare con l'ottimizzazione:
- Preparare i dati di addestramento
- Addestrare il modello e i parametri iper
- Valutare i risultati
- Pubblicare su Hugging Face
E condividerò tutto il codice necessario per farlo da soli.

10,18K
Principali
Ranking
Preferiti