> 做你自己 > 想真正了解 LLM 是如何工作的 > 厌倦了“先从线性代数开始,五年后再回来” > 决定自己制定学习路线图 > 没有废话。没有绕路。没有 200 小时的通用 ML 播放列表 > 只有那些能让你从“什么是 token?”到“我用 LoRA 适配器和 FlashAttention 训练了一个迷你 GPT”的内容 > 目标:构建、微调并发布 LLM > 不是与它们共鸣。不是永远“学习理论” > 而是构建它们 > 你将会: > > 从零开始构建一个自动求导引擎 > > 从零开始编写一个迷你 GPT > > 实现 LoRA 并在真实数据上微调模型 > > 至少讨厌 CUDA 一次 > > 哭泣 > > 继续前进 > 5 个阶段 > 如果你已经知道一些东西?跳过 > 如果你迷路了?重看 > 如果你卡住了?使用 DeepResearch > 这是一个路线图,而不是绳索 > 到最后:你要么构建了这个东西,要么没有 > 阶段 0:基础 > > 如果矩阵乘法让你感到害怕,你还没有准备好...