数学 (20 篇)
前三篇(第17-19篇)把梯度下降、SGD/Mini-batch、Adam 优化器讲透了。AdamW 里的权重衰减(L2 正则化)反复出现,但一直没有正面讲清楚它的数学原理。这一篇补全这块拼图——从正则化的根本动机讲起,推导 L1 和 L2 的几何直觉,再联系到 DeepSeek V3 的 M...
第17篇讲了梯度下降的几何原理,第18篇讲了 SGD 的统计性质和 mini-batch 的噪声正则化效果。两篇都暗含一个缺陷:所有参数用同一个学习率。但神经网络里不同参数的梯度量级可以相差几个数量级——嵌入层参数的梯度极小,某些全连接层的梯度很大。
上一篇我们推导了梯度下降的数学原理——负梯度是损失下降最快的方向,学习率控制步长,学习率太大振荡、太小收敛慢。
上一篇我们讲透了信息熵和交叉熵——熵衡量不确定性,交叉熵衡量"用错分布的代价",最小化交叉熵就是让模型分布靠近真实分布。这一篇深入KL 散度:它是衡量两个概率分布"距离"的工具,交叉熵和它只差一个常数。
上一篇我们推导了 MLE——最大似然估计统一了分类任务的交叉熵损失和回归任务的 MSE 损失。但交叉熵本身来自哪里?为什么叫"交叉"熵?"熵"又是什么?这一篇从信息论的角度重新理解训练损失,把熵、交叉熵、KL 散度这三个概念的关系讲清楚,再联系到 DeepSeek V3 的训练和 R1 的强化学习。
前三篇我们把概率基础、条件概率与贝叶斯定理、常见概率分布都讲透了。现在有一个自然的问题:分布的参数是怎么从数据里估计出来的?
前两篇我们把概率基础(随机变量、期望、方差)和条件概率与贝叶斯定理讲透了。这一篇聚焦具体的概率分布——它们是深度学习里对数据建模的"语言",选择什么分布意味着对数据结构做了什么假设。我们从最直觉的角度讲透每个分布,然后联系到 DeepSeek V3/R1 里的具体用途。
上一篇我们把概率基础打好了——随机变量、期望、方差、五种常见分布。这一篇深入一个更核心的概念:条件概率。语言模型的每一次预测,本质上就是在计算条件概率;贝叶斯定理告诉我们如何从已有证据出发更新信念。搞懂这两个概念,你就能真正理解语言模型在做什么,以及 DeepSeek R1 的训练为什么要用强...