不懂历史就看不懂趋势——
Scaling Law 是理解 AI 进化速度的关键钥匙。
如果有人告诉你,现在这波 AI 热潮,是 AI 历史上的第三次"复兴"——你可能会感到意外。AI 这个领域,已经经历了至少两次大起大落,两次"AI 寒冬",才走到今天。
理解这段历史不是为了怀旧,而是为了理解:这次为什么不一样。以及,这次能持续多久,下一个拐点在哪里。
这一章是一张地图,帮你理解 AI 的来龙去脉——从图灵在 1950 年代提出"机器能思考吗?",到今天你用豆包写周报。
理解现代 AI 的关键钥匙,叫做 Scaling Law(缩放定律)。它的核心发现可以用一句话概括:
模型参数越多、训练数据越多、使用的算力越多——AI 的能力就越强,而且这个提升是可预测的、稳定的。
这听起来平淡,但它的意义是革命性的:在 Scaling Law 发现之前,研究者们每隔几年就会撞上"墙"——再怎么改进算法,性能也上不去了。但 Scaling Law 告诉你:只要继续扩大规模,性能就会继续提升。
这三者以近似对数的方式影响模型能力——投入翻倍,能力有规律地提升。这就是为什么 AI 公司愿意不断加大投入。
想象你在训练一个厨师。给他更多练习机会(数据)、让他拥有更精细的味觉神经(参数)、花更多时间训练(算力)——他的厨艺就会更好。而 Scaling Law 说的是:这三者之间有一个可预测的数量关系,不是玄学,是数学。
这是目前 AI 领域最大的争论之一。2024 年开始,一些迹象显示纯粹扩大规模的回报在递减——新一代模型的进步幅度,已经不像早期那么显著。这引发了两派截然不同的判断:
这个争论目前没有定论。但对你来说,理解这个争论的意义在于:AI 的进步不是无限线性的,它可能会遭遇瓶颈,也可能以意想不到的方式突破瓶颈。保持期待,但不要假设"进步永远持续"。
2025 年初,DeepSeek 公开了其模型和训练方法,在技术社区引发震动。核心发现是:通过更聪明的架构设计(混合专家模型 MoE)和更高效的训练策略,可以用远低于 GPT-4 的算力成本,达到接近的性能水平。
这给 Scaling Law 争论加了一个新维度:也许"更聪明地扩展",比"更大地扩展"更有前途。算法效率的提升,可以在算力受限的情况下实现能力跨越——这对中国 AI 在算力受限环境下的发展有重大意义。
AI 历史上有过两次寒冬。每次热潮结束时,都有人说"AI 永远不可能实现";每次新突破到来时,都有人说"这次是真的通用智能了"。两种极端都错了。
今天这波 AI 浪潮的基础——大模型、Transformer、Scaling Law——确实是迄今为止最坚实的基础。但这不代表进步是无限的、线性的,也不代表不会遇到新的瓶颈。
最健康的姿态是:保持对 AI 进展的关注和好奇,但不要被短期的炒作或悲观所左右。你现在学到的认知框架,比任何具体工具都更持久。