> будь собой > хочешь на самом деле узнать, как работают LLM > устал от "просто начни с линейной алгебры и вернись через 5 лет" > реши создать свой собственный план > без лишнего. без обходов. без 200-часовых общих плейлистов по ML > только то, что действительно поможет тебе перейти от "что такое токен?" к "я обучил мини-GPT с адаптерами LoRA и FlashAttention" > цель: строить, донастраивать и отправлять LLM > не просто взаимодействовать с ними. не "учить теорию" вечно > строить их > ты будешь: > > строить движок автоградирования с нуля > > писать мини-GPT с нуля > > реализовывать LoRA и донастраивать модель на реальных данных > > ненавидеть CUDA хотя бы раз > > плакать > > продолжать > 5 фаз > если ты уже что-то знаешь? пропусти > если ты потерялся? пересмотри > если ты застрял? используй DeepResearch > это план, а не поводок > к концу: ты либо построил это, либо нет > фаза 0: основы > > если умножение матриц пугает, ты еще не готов...