前三篇我们把概率基础、条件概率与贝叶斯定理、常见概率分布都讲透了。现在有一个自然的问题:分布的参数是怎么从数据里估计出来的?
前两篇我们把概率基础(随机变量、期望、方差)和条件概率与贝叶斯定理讲透了。这一篇聚焦具体的概率分布——它们是深度学习里对数据建模的"语言",选择什么分布意味着对数据结构做了什么假设。我们从最直觉的角度讲透每个分布,然后联系到 DeepSeek V3/R1 里的具体用途。
上一篇我们把概率基础打好了——随机变量、期望、方差、五种常见分布。这一篇深入一个更核心的概念:条件概率。语言模型的每一次预测,本质上就是在计算条件概率;贝叶斯定理告诉我们如何从已有证据出发更新信念。搞懂这两个概念,你就能真正理解语言模型在做什么,以及 DeepSeek R1 的训练为什么要用强...
上一篇我们搞清楚了高维空间的直觉——token 嵌入向量为什么需要 7168 维,以及高维空间的四个反直觉现象。最后我们提到了一个关键观察:7168 维的向量,其实际信息量远小于 7168 维,真正的语义结构分布在一个低维子空间里。
前八篇我们把基础数学工具打好了——符号系统、对数、函数、导数、链式法则,以及线性代数的向量、矩阵运算、点积与注意力机制。
前两篇我们把向量和矩阵的基础打好了。这一篇聚焦在一个操作上:点积。它看起来简单,就是对应元素相乘再相加,但它是整个注意力机制的心脏。这篇文章会把点积的几何意义、数学性质、工程考量和在 DeepSeek V3 里的具体形态全部讲透,字数会比前几篇多一些,因为注意力机制值得用足够的篇幅来讲清楚。
上一篇我们把向量讲透了——它是深度学习里特征的基本表示单位,点积是衡量相似度的核心工具。这一篇我们来讲矩阵。矩阵是神经网络的"变换引擎",全连接层、注意力机制、MoE 路由,骨子里全是矩阵乘法。
前五篇我们把基础数学工具(符号、对数、函数、导数、链式法则)打好了底。从这篇开始进入第二阶段:线性代数。很多人觉得线性代数枯燥,但在深度学习里,它就是神经网络运转的"物理引擎"——每一层的计算、注意力机制、词向量、特征表示,本质上全是线性代数。这一篇从最基础的向量讲起。
上一篇我们把导数的直觉和梯度下降的基本思路讲清楚了。这一篇是第一阶段的收官之作,我们要完整推导反向传播算法——用一个真实的两层神经网络,从损失函数出发,一步一步把每个参数的梯度算出来。这是深度学习里最重要的数学推导之一,搞懂它,你对神经网络训练的理解会从"知道"变成"真正明白"。