欢迎来到我的博客

欢迎! 这是我的个人博客,使用 Django 搭建。 功能特性 ✅ Markdown 写作 ✅ 嵌套评论系统 ✅ 用户注册登录 ✅ 文章分类和标签 ✅ 点赞功能 ✅ 搜索功能 代码示例 def hello(): print("Hello, World!") ...

admin 技术 2026-02-28 50 0 1 分钟
LangChain 1.0 完全指南:从入门到实战,新旧版本全面对比

本文将系统性地回答以上问题,覆盖 LangChain 1.0 的**核心概念、API 变化、新特性详解**,并在每个关键节点提供新旧版本的代码对比。无论你是刚接触 LangChain 的新人,还是从 0.x 迁移的老用户,都能从本文找到价值。

Chuanyun langchain 1.0 2026-03-16 16 0 67 分钟
知识入库:多格式文档的 ETL 与父子切分策略

本文是「智答」RAG 智能问答系统开发系列的**第二篇**。上一篇我们用 30 行代码跑通了 RAG 的最简链路,用的是极度简化的文档处理方案。本篇深入离线链路的上半段:如何把真实世界里格式各异、质量参差的原始文档,加工成干净、结构合理的知识片段——这是整个 RAG 系统质量的真正地基。

Chuanyun RAG实战 2026-03-16 21 0 103 分钟
RAG
【RAG实战】RAG 系统全景导读:从 FAQ 到智能问答的工程跨越

本文是「智答」RAG 智能问答系统开发系列的第一篇。本系列面向有 Python 基础、希望系统入门 RAG 工程开发的程序员,共 6 篇文章,配套一个完整的实践项目——「技术文档智能问答助手」。跟完整个系列,你将得到一个支持多格式文档上传、多轮对话、混合检索的生产级 RAG 系统。

Chuanyun RAG实战 2026-03-13 21 0 67 分钟
RAG
【AI数学入门】第20篇:正则化与负载均衡——L1、L2 与 DeepSeek MoE 的 Expert 均衡损失

前三篇(第17-19篇)把梯度下降、SGD/Mini-batch、Adam 优化器讲透了。AdamW 里的权重衰减(L2 正则化)反复出现,但一直没有正面讲清楚它的数学原理。这一篇补全这块拼图——从正则化的根本动机讲起,推导 L1 和 L2 的几何直觉,再联系到 DeepSeek V3 的 M...

admin AI算法数学入门 2026-03-06 22 0 46 分钟
【AI数学入门】第19篇:Adam 优化器——DeepSeek 训练用的是什么?它的数学原理

第17篇讲了梯度下降的几何原理,第18篇讲了 SGD 的统计性质和 mini-batch 的噪声正则化效果。两篇都暗含一个缺陷:所有参数用同一个学习率。但神经网络里不同参数的梯度量级可以相差几个数量级——嵌入层参数的梯度极小,某些全连接层的梯度很大。

admin AI算法数学入门 2026-03-06 15 0 50 分钟
【AI数学入门】第18篇:随机梯度下降与 Mini-batch——为什么不用全量数据?

上一篇我们推导了梯度下降的数学原理——负梯度是损失下降最快的方向,学习率控制步长,学习率太大振荡、太小收敛慢。

admin AI算法数学入门 2026-03-06 14 0 40 分钟
【AI数学入门】第17篇:梯度下降——沿着坡走到最低点

前六篇(第11-16篇)把概率与信息论打透了——随机变量、贝叶斯定理、MLE、交叉熵、KL散度。

admin AI算法数学入门 2026-03-06 12 0 42 分钟
【AI数学入门】第16篇:KL散度——DeepSeek R1 强化学习中的约束项从何而来?

上一篇我们讲透了信息熵和交叉熵——熵衡量不确定性,交叉熵衡量"用错分布的代价",最小化交叉熵就是让模型分布靠近真实分布。这一篇深入KL 散度:它是衡量两个概率分布"距离"的工具,交叉熵和它只差一个常数。

admin AI算法数学入门 2026-03-06 15 0 42 分钟
【AI数学入门】第15篇:信息熵与交叉熵——语言模型损失函数的数学根源

上一篇我们推导了 MLE——最大似然估计统一了分类任务的交叉熵损失和回归任务的 MSE 损失。但交叉熵本身来自哪里?为什么叫"交叉"熵?"熵"又是什么?这一篇从信息论的角度重新理解训练损失,把熵、交叉熵、KL 散度这三个概念的关系讲清楚,再联系到 DeepSeek V3 的训练和 R1 的强化学习。

admin AI算法数学入门 2026-03-06 15 0 36 分钟