Dario Amodei:我们正站在指数增长的尾声
Anthropic CEO 在两小时播客中给出了 90% 信心的判断:10 年内天才之国,编码领域一两年。但真正值得深读的不是时间线,而是他关于两个指数、AI 盈利逻辑、扩散速度的完整思考框架。
Anthropic CEO Dario Amodei 做了一期两个多小时的深度播客访谈。
他说了一句让我反复咀嚼的话:
“最令人惊讶的,不是 AI 有多强,而是公众至今没意识到我们离指数增长的终点有多近。”
不是技术超出预期,是人类对技术的认知严重滞后。
他打了 90% 的信心:10 年内实现”数据中心里的天才之国”。编码领域?一两年。
但真正让这期访谈值得逐字拆解的,不是这个时间线本身,而是他描述的一整套关于 AI 如何改变世界的思考框架。
一个从 2017 年就没变过的假设
Dario 在 2017 年写了一份内部文档,叫”大规模计算假设”(The Big Blob of Compute Hypothesis)。
核心观点:所有聪明的技巧、花哨的方法,都不太重要。重要的只有几件事。
他列了七个:
- 原始计算量
- 数据数量
- 数据质量和分布
- 训练时长
- 一个可扩展的目标函数
- 数值稳定性
- 归一化/条件化
这个假设比 Richard Sutton 的”苦涩的教训”(The Bitter Lesson)还早两年。而且八年过去了,Dario 说他几乎没看到任何与这个假设相矛盾的证据。
预训练在扩展,RL 也在扩展。不是两个不同的故事,是同一个故事。
他特别纠正了一个常见误解:很多人觉得 RL 和预训练是两码事。Dario 说不是。RL 的扩展路径跟预训练完全一样。先从简单的数学竞赛开始,然后扩展到代码任务,接着扩展到越来越多的其他任务。这和预训练从小数据集扩展到 Common Crawl 的路径如出一辙。
目标从来不是让模型学会每一种技能,而是积累足够多的数据实现泛化。
预训练是进化和学习之间的”中间态”
这是我认为这期访谈中最有意思的类比。
Dwarkesh 抛出了一个尖锐的问题:如果人类不需要看万亿个词就能学会东西,那 LLM 需要这么多数据是不是说明我们在扩展错误的东西?
Dario 没有回避,而是给出了一个精巧的定位:
“预训练不像人类的学习,它介于人类进化和人类学习之间。”
人类的大脑不是白板。进化花了几十亿年给我们的大脑植入了各种先验结构、区域功能、输入输出连接。而 LLM 从随机权重开始,确实更像”白板”。
所以它需要更多数据来”补课”。这不是 bug,是模型学习方式的本质特征。
但关键来了:一旦训练完成,给模型一个百万 token 的上下文窗口,它在上下文中的学习能力已经很强了。百万个 token 相当于人类几天甚至几周的阅读量。
预训练 + RL = 进化级的知识积累
上下文学习 = 人类级的即时适应
这两者加在一起,可能就够了。
编码为什么跑得最快?因为它有”外部记忆”
Dwarkesh 挑战了一个核心问题:编码进展这么快,是不是因为它有个其他工作不具备的独特优势?
答案是:代码库本身就是一个外部记忆支架。
人类新入职工程师需要六个月理解代码库。模型把代码库读进上下文窗口,瞬间就”理解”了。
人类所说的”在职学习”,在编码领域很大程度上被”上下文阅读”替代了。这就是为什么 Anthropic 已经有工程师完全不写代码,全部交给 Claude。
Dario 给出了一个具体数字:编码模型现在大概带来 15% 到 20% 的全要素生产率提升。六个月前只有 5%。这个数字在快速增长。
他还直接回应了 Meta 那个引发争议的研究(开发者自认为更高效,但实际产出下降 20%):
“在 Anthropic 内部,这些工具带来的生产力提升是毫不含糊的。我们承受着巨大的生存压力,根本没有时间自欺欺人。“
90% 的代码 ≠ 90% 的工程师被替代
这是 Dario 反复强调、但被反复误解的一个关键区分。
他画了一个光谱:
- 90% 的代码由 AI 编写 → 已经在发生
- 100% 的代码由 AI 编写 → 生产力有巨大差异
- 90% 的端到端 SWE 任务由 AI 完成(包括编译、测试、部署、文档)
- 100% 的当今 SWE 任务由 AI 完成 → 工程师不会失业,而是转向更高层任务
- 对 SWE 的需求减少 90% → 会发生,但在光谱的另一端
从 1 到 5,每一步之间都是巨大的跨越。我们正在快速穿越这个光谱,但不是瞬间跳到终点。
两个指数,一快一慢
这是我认为 Dario 整个框架中最核心的洞察:
第一个指数:模型能力的增长。 这个非常快,基本按预期推进。
第二个指数:经济扩散的速度。 也很快,但不是无限快。
他举了 Claude Code 的例子。个人开发者和初创公司几乎立刻就用上了。但大型企业呢?
“大型金融公司、制药公司,它们采用 Claude Code 的速度比以往任何新技术都快。但还是需要过法律审批、安全合规、高管决策、团队培训。”
这不是模型不够好的问题,是现实世界运转的摩擦力。
Anthropic 的收入增长说明了一切:
- 2023 年:0 → 1 亿
- 2024 年:1 亿 → 10 亿
- 2025 年:10 亿 → 90 到 100 亿
- 2026 年 1 月:又增加了几十亿
每年 10 倍。这条曲线不可能永远持续,但它说明经济扩散确实在发生,而且速度前所未有。
快到超过人类历史上任何一次技术扩散。但没快到能忽略现实世界的摩擦。
为什么 Anthropic 不砸 10 万亿买算力?
Dwarkesh 问了一个犀利的问题:如果你真的相信天才之国一两年就来,为什么不全力投入买算力?
Dario 的回答揭示了一个被大多数人忽略的商业逻辑:
“如果你只差一年判断错误,就会破产。”
数据中心是提前一两年预定的。如果你预计 2027 年收入达到一万亿,就提前买了一万亿的算力,结果收入只有八千亿,那没有任何对冲手段能救你。
所以”负责任的扩展”不是花得少,而是对风险有清醒的认知。Dario 说有些竞争对手连电子表格都没算清楚就在砸钱。
行业整体每年增长 3 倍:2026 年 10 到 15 吉瓦,2027 年 30 到 40 吉瓦,2028 年 100 吉瓦,2029 年 300 吉瓦。每吉瓦每年成本 100 到 150 亿美元。
到 2028 到 2029 年,行业每年投入将达到数万亿美元。
钱在花,而且在加速花。只是不能赌命。
AI 行业的盈利逻辑:不是选择,是预测
这部分讨论颠覆了我对 AI 公司盈亏的理解。
Dario 说:在这个行业,盈利不是”投资少了”的结果,而是”低估了需求”的结果。
逻辑是这样的:
- 你先决定买多少算力(提前一两年)
- 大约 50% 用于训练新模型,50% 用于推理服务
- 推理的毛利率超过 50%
- 如果实际需求 > 你的预测 → 推理占比增加 → 盈利
- 如果实际需求 < 你的预测 → 训练占比增加 → 亏损
盈利 = 你低估了市场对你模型的渴望程度。
亏损 = 你高估了市场的接受速度。
这也解释了为什么每个模型单独看都是盈利的,但公司整体可能亏损。因为你在指数级地扩大下一轮训练的投入。今年花 10 亿训练的模型产生 40 亿收入,但同时你在花 100 亿训练下一个模型。
最有价值的应用受制于扩散,不是技术
Dario 用了一个极具说服力的例子:治愈所有疾病。
“假设天才之国明年诞生,发令枪响了。需要多久才能真正治愈所有疾病?”
你需要生物学发现 → 药物制造 → 监管审批 → 全球推广。我们有脊髓灰质炎疫苗 50 年了,至今还在非洲最偏远的角落努力根除它。
COVID 疫苗的速度已经算极快了,依然花了一年半。
AI 最有经济价值的应用,瓶颈不是”能不能发明”,而是”发明之后多快能送到每个人手上”。
这不是悲观主义,而是对现实的尊重。扩散比以往任何技术都快,但依然有其极限。
我们正站在什么位置?
回顾整场访谈,Dario 画出了一幅清晰的图景:
- 技术指数仍在攀升。 预训练和 RL 都在扩展,没有撞墙的迹象。
- 天才之国可能一两年后出现。 90% 信心在 10 年内,50% 的直觉在 1 到 3 年。
- 但经济影响不是瞬间爆发。 快到超越历史,慢到需要耐心。
- 编码是第一个被全面改变的领域。 不是因为最简单,而是因为它有天然的外部记忆和可验证性。
- 2030 年前行业收入达到万亿级。 不是希望,是他认为很难看到其他可能。
最后,Dario 说了一句让我印象最深的话:
“在指数增长的每一个时刻,世界上外面的人都不理解它。当人们回顾的时候,他们很难想象那些真正押注这件事的人,是在赌一个并非必然发生的未来。一切都在同时发生,快到你以为是精密计算过的决策,其实都是在飞速中做出的。”
这不是预言,是一个站在指数曲线内部的人,对外面世界的呼喊。
我们正站在指数增长的尾声。问题不是”会不会发生”,而是”你准备好了吗”。
本文基于 Dwarkesh Podcast:Dario Amodei — “We are near the end of the exponential” 整理。