Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Моя наступна публікація в блозі виходить цього тижня, і це набагато глибше занурення, ніж зазвичай.
Я розповім про те, як я тонко налаштував Microsoft Phi-3-mini-4k-instruct (3.8B) з LoRA на своєму Mac за допомогою MLX.
Експеримент полягав у вивченні того, чи можна точно налаштувати модель 3.8B, яка працює локально, щоб «говорити як я», тренуючи її на моїх власних публікаціях у блозі.
Я вже пересунув обважнювачі адаптера LoRA на Hugging Face.
Але що ще важливіше, у дописі буде описано весь процес, щоб більше технічних спеціалістів могли дізнатися, як розпочати роботу з тонким налаштуванням:
- Підготовка даних тренування
- Навчання моделі та гіперпараметрів
- Оцінка результатів
- Публікація в Обіймаючому обличчі
І я поділюся всім кодом, необхідним для того, щоб зробити це самостійно.

14,28K
Найкращі
Рейтинг
Вибране