看李宏毅的《机器学习》课程时,被他拆解问题的方式吸引:先定义,再推导,再验证。不是灌输,是一种可被构建的体系。
网络上有人把整套笔记放到GitHub上,持续补充改进。学习在共享中延伸,开源让知识循环,不是停留在个人积累上。
AI能生成真实的文字、图像、预测结果,本质上是在逼近物理世界。问题在于是否等价于现实?
AI能模拟世界,那么AI在事实上洞悉了世界的本质。否则它怎能重构世界呢?
如果世界的规律可以被函数描述,AI就能通过数据学习去还原它;如果不能,它只能在局部模仿。
深度学习的机制很直接:用多层线性变换与非线性激活叠加复杂关系,通过梯度下降最小化误差,在有限计算资源下逼近目标函数。
整个过程是不断修正、压缩和优化的循环。
AI的基础,机器深度学习,一层层简单的激活函数做向量运算,拟合出大量参数表达现实世界,进而预测现实世界。
这个大规模参数集,我们称之为神经元,这一层层的向量运算,我们称之为DeepLearning。
过拟合说明模型看得太细。它在训练数据上记忆了噪声,却失去了对规律的抽象。
问题不是学得太好,而是看得不够远。解决的关键是约束模型空间、增加样本多样性、改进正则策略,让模型学到能迁移的结构。
人类学习也会过拟合。我们容易执着于经验片段,放大偶然,忽略分布。摆脱这种偏差,需要扩大样本来源,接受反例,不断验证。
AI的训练过程像人类的思考。机器用梯度下降更新参数,人用经验与反思调整判断。两者都依赖误差反馈。不同的是,人能定义目标,而机器只能优化损失。学习AI,不是掌握算法,而是理解一种方法论——抽象、验证、修正、泛化。机器在函数空间中寻找世界,人则在认知中寻找秩序。