前三篇我们搞定了符号系统、指数对数、以及函数的本质。这一篇我们来讲导数——它是整个深度学习优化过程的数学基础。没有导数,就没有梯度下降,就没有神经网络的训练,就没有 DeepSeek。
前两篇我们搞定了符号语言和指数对数。这一篇我们来讲函数——这个概念你从初中就开始学,但神经网络对"函数"的理解方式,和教科书里的完全不是一回事。把这一层想清楚,你对神经网络结构的理解会有一次质的飞跃。
上一篇我们把论文里的符号语言扫了一遍,认识了 Σ、argmax、∝ 这些"字母"。这一篇我们来讲指数和对数,这是贯穿整个深度学习的数学工具——从损失函数到注意力机制,从概率模型到信息熵,几乎到处都有它们的身影。
本篇目标:理解 MDP 的完整数学定义,搞清楚"马尔可夫性"的直觉含义,以及状态转移、奖励函数、折扣因子、策略这些概念在数学上是怎么表达的。不会只堆公式,每个概念都会给你一个能抓得住的直觉。
假设你现在在玩《超级马里奥》,第一次上手,你完全不知道怎么操作。 你按了一下右键,马里奥往右走了——好像没什么问题。你又按了跳跃,马里奥跳过了一个坑——不错。然后你一头撞上了一个蘑菇怪,扣血了。你心里记住了:遇到蘑菇怪要跳过去。 就这样,你死了一遍又一遍,每一次失败都让你学到一点东...
我第一次打开一篇深度学习论文的时候,不是被里面的思想吓到的,而是被那些符号吓跑的。 满屏的 Σ、∈、argmax、∝,还有各种上下标叠在一起,看起来像是某种外星语言。但其实,这些符号背后的逻辑并不难,它们本质上只是一种"简写系统"——就像我们平时用"etc."代替"等等",用"vs."代...
把之前构建的 LangChain 应用推上生产环境。覆盖流式响应的端到端实现、LangServe 一键部署 LCEL 链、LangSmith 生产级监控调试、Token 成本管控、缓存策略,以及 FastAPI + Docker + Redis 的完整参考部署架构。
理解 LangGraph 解决了什么问题,掌握图(Graph)、节点(Node)、边(Edge)、状态(State)四个核心概念,能够用 LangGraph 构建带条件分支、循环推理和人工干预的复杂智能体。
从零开始掌握 RAG(检索增强生成)的完整技术链路。理解为什么需要 RAG、每个环节的设计选择背后的原理,能够独立构建一个生产可用的本地文档问答系统,并了解常见的检索质量优化手段。