Il mio prossimo post sul blog uscirà questa settimana e sarà un'analisi molto più approfondita del solito. Camminerò attraverso come ho ottimizzato il Phi-3-mini-4k-instruct (3.8B) di Microsoft con LoRA sul mio Mac utilizzando MLX. L'esperimento: esplorare se un modello da 3.8B che gira localmente può essere ottimizzato per "parlare come me" addestrandolo sui miei stessi post del blog. Ho già caricato i pesi dell'adattatore LoRA su Hugging Face. Ma, cosa più importante, il post condividerà l'intero processo affinché le persone più tecniche possano imparare come iniziare con l'ottimizzazione: - Preparare i dati di addestramento - Addestrare il modello e i parametri iper - Valutare i risultati - Pubblicare su Hugging Face E condividerò tutto il codice necessario per farlo da soli.
10,18K