Моя наступна публікація в блозі виходить цього тижня, і це набагато глибше занурення, ніж зазвичай. Я розповім про те, як я тонко налаштував Microsoft Phi-3-mini-4k-instruct (3.8B) з LoRA на своєму Mac за допомогою MLX. Експеримент полягав у вивченні того, чи можна точно налаштувати модель 3.8B, яка працює локально, щоб «говорити як я», тренуючи її на моїх власних публікаціях у блозі. Я вже пересунув обважнювачі адаптера LoRA на Hugging Face. Але що ще важливіше, у дописі буде описано весь процес, щоб більше технічних спеціалістів могли дізнатися, як розпочати роботу з тонким налаштуванням: - Підготовка даних тренування - Навчання моделі та гіперпараметрів - Оцінка результатів - Публікація в Обіймаючому обличчі І я поділюся всім кодом, необхідним для того, щоб зробити це самостійно.
14,28K