深度学习之学习

  大童  |   on Friday, October 24, 2025  |  688   |  2 minutes

看李宏毅的《机器学习》课程时,被他拆解问题的方式吸引:先定义,再推导,再验证。不是灌输,是一种可被构建的体系。

网络上有人把整套笔记放到GitHub上,持续补充改进。学习在共享中延伸,开源让知识循环,不是停留在个人积累上。

AI能生成真实的文字、图像、预测结果,本质上是在逼近物理世界。问题在于是否等价于现实?

AI能模拟世界,那么AI在事实上洞悉了世界的本质。否则它怎能重构世界呢?

如果世界的规律可以被函数描述,AI就能通过数据学习去还原它;如果不能,它只能在局部模仿。

深度学习的机制很直接:用多层线性变换与非线性激活叠加复杂关系,通过梯度下降最小化误差,在有限计算资源下逼近目标函数。

整个过程是不断修正、压缩和优化的循环。

AI的基础,机器深度学习,一层层简单的激活函数做向量运算,拟合出大量参数表达现实世界,进而预测现实世界。

这个大规模参数集,我们称之为神经元,这一层层的向量运算,我们称之为DeepLearning。

过拟合说明模型看得太细。它在训练数据上记忆了噪声,却失去了对规律的抽象。

问题不是学得太好,而是看得不够远。解决的关键是约束模型空间、增加样本多样性、改进正则策略,让模型学到能迁移的结构。

人类学习也会过拟合。我们容易执着于经验片段,放大偶然,忽略分布。摆脱这种偏差,需要扩大样本来源,接受反例,不断验证。

AI的训练过程像人类的思考。机器用梯度下降更新参数,人用经验与反思调整判断。两者都依赖误差反馈。不同的是,人能定义目标,而机器只能优化损失。学习AI,不是掌握算法,而是理解一种方法论——抽象、验证、修正、泛化。机器在函数空间中寻找世界,人则在认知中寻找秩序。