2025-11-30 21:34:00
原创 曲凯 2025-11-30 21:34 北京
泡沫只是情绪词。
这是莫傑麟第六次做客我们的播客。我们几乎每隔几个月,就会一起复盘一次 AI 市场的最新动向。这一次,我们聊的是近期热度最高的话题之一:AI 泡沫。泡沫只是情绪化的表象,更值得探讨的,是泡沫之下结构性的变化。
本期播客原文约 17000 字,本文经过删减整理后约 6600 字。
曲凯:我问个最直接的问题,你觉得现在的 AI 有泡沫吗?
莫傑麟:有。
曲凯:这么直接?你不分类讨论一下吗(笑)?
莫傑麟:哈哈哈如果把泡沫理解成「预期高于现实」,那肯定是有的。
但有泡沫不一定是坏事,反而能推动行业发展。泡沫也不一定随时会破。
曲凯:但我觉得需要拆开看,把价值和价格分开来说。
从价值来看,我不觉得现在的 AI 有问题。
最近关于泡沫的讨论,大多发生在小红书和 Twitter,但我们身边真正做 AI 的人,几乎没人谈这事。我还特意问了几个人,结果大家都非常鄙视我,说:「AI 哪有什么泡沫?发展得挺好,我们都很兴奋。现在的智能水平也已经够高了。」
所以从价值层面看,没什么泡沫。
但从价格层面看,就得进一步细分,拆成中国、美国、一级、二级来看。
价格体现在一级市场是估值,二级市场是市值。
今年国内一级市场整体还算健康。虽然估值比去年高了好几倍,但对比美国,同样的头部项目,在国内的估值至少会比美国低十倍。
反观美国一级市场,泡沫就比较明显了。那边不少公司的估值明显虚高,比如 Cursor,一直在赔钱做,却仍能拿到接近 100 亿美金的估值。
而二级市场就更明显在高位。二级你更熟,你怎么看?
莫傑麟:这几年已经不是第一次出现泡沫讨论了。但去年最大的争议点是:AI 的市盈率并不算高,可能就 30 倍左右,因为 EPS 一直在涨。
曲凯:对。这波很多人说没有泡沫的核心理由,也是因为这些公司真有收入,从市盈率看还能撑住。
莫傑麟:但不能只看收入,还要考虑两个关键问题。
第一,大家对 AI 的预期差异太大,而预期并不完全体现在价格上。
我们上期节目说过(回顾:硅谷 AI 大转弯与二级市场的牛市|42章经),这一轮大家对 AI 有两个核心预期,一个是 AGI,另一个是降本增效。
那降本增效到底能快到什么程度?这些模型公司建的 data centers,ROI 能做到多少?AGI 又到了什么阶段?
每个人对这些问题的预期水位完全不同,所以价格判断自然不同。
第二,AI 的发展本身是高度结构化的。
一开始行业就被分成了中国 vs 美国、硬件 vs 软件等不同方向。不同板块、不同公司的泡沫程度必然不同。
所以当下一个很重要的问题,是分析 AI 的结构性变化。
我们上一期花了很大篇幅聊这一点。AGI 阶段和降本增效阶段,本质上是两套完全不同的结构。
曲凯:对。我们上一期是从 AGI 和英伟达的角度出发,聊了 AI 叙事的结构变化。
第一阶段的重点是 Pre-Training 的 Scaling Law,所以英伟达一直涨。
去年 o1 出来后,叙事转向 Post-Training 和 RL。到今年 DeepSeek 出来,这个叙事达到顶峰,所以当时英伟达出现了一波大幅下跌。
但现在的问题是,RL 的叙事似乎有些后继乏力,我们没看到特别明显的 RL 的 Scaling Law,DeepSeek 也没有再出特别惊艳的新版本。
你觉得这是打破市场预期、导致泡沫讨论升温的主要原因吗?
莫傑麟:我整理过这波泡沫的论据,发现非常分散。
年初 DeepSeek 在美股砸下深坑的时候,大家集中火力在讲同一个点,就是 DeepSeek 让大家看到了「花小钱办大事」的可能性。
但这一次完全不一样。这次有人讲你刚说的这个点,有人讲模型绝对能力,有人讲应用落地、商业模式、成本,还有人讲中国模型开源……维度非常多。
但我总结下来,所有论据最后都指向同一个问题:
模型公司的 ROI 有问题。
投入太大,而从所有维度看,产出都不够。
曲凯:但这不是新问题。包括你说的这些论据,过去一年一直有人在讲。
我们最近的 Newsletter 总结了 Coatue 的一篇文章(回顾:为什么说 AI 还没到泡沫?等四篇 | 42章经 AI Newsletter),其中的核心观点是:跟 .com 泡沫比,现在这波根本不算什么。我看完那篇文章后去搜了一圈,发现认为有泡沫的那一方,似乎并没有特别新的论据,也没有一个扛大旗、认为一定有泡沫的角色。包括大空头做空英伟达之类的动作,也不是最近才开始。
所以这波讨论还挺奇怪的。
莫傑麟:它其实是有叙事链条的。
这波讨论最早的引发点是 Meta 挖人,后来接连有各种资本动作,比如 OpenAI 和 xAI 加码 data centers,英伟达投资模型公司等等。
这些动作的共同点,就是都在推高 Investment。Investment 越来越大,而 Return 却有收平的趋势,于是市场对 ROI 的焦虑就被不断放大。再叠加过去半年的宏观波动,各种事实因素一起作用,就催生了现在这波泡沫讨论。
曲凯:对。现在还有一个事实,就是美股和英伟达都在跌。
我也想梳理清楚一点:美股最近到底为什么跌?更多是因为地缘政治、美联储降息的风声,还是 AI 本身?
莫傑麟:很难排个准确顺序。但美股现在绝不仅仅是因为 AI 在跌。
今年 DeepSeek 出来的时候,英伟达一度跌到过九十多美元,而这次远没跌到那个程度。
换句话说,如果市场真的确信泡沫要破了,跌幅应该更大。
我能确认的是,现在市场的风险偏好比几个月前明显更低了。
但我同意你说的,这种变化还没有大规模影响到从业者,也没完全反映在市场里。否则我们身边不会有这么多人还在买 Google。
所以当前的风险偏好,只是结构性的、小范围的下降。
曲凯:现在最大的问题似乎是市场情绪太脆弱了。你会隐隐感觉到,市场好像在「合力寻找泡沫」。
有篇文章说得特别好:不管你是看多还是看空 AI,其实都希望它跌。看多的人希望跌完抄底,看空的人是觉得它本来就应该跌。
但现在看来,跌幅还算可控?
莫傑麟:可能只是把之前过度乐观的部分回撤了一点哈哈。
曲凯:是。我觉得现在大家看 AI 的心态也有些变化。你会明显感觉到,好像越来越少人真正期待 AGI 了?
莫傑麟:你说的其实就是一个结构性的变化。
我们上次聊过,现在已经很难用一个统一的 Benchmark 去判断模型好坏了。发展到今天,你会发现我们身边很多 founders 都觉得模型的能力已经够用了。
但这里有个问题,就是那些大的 AI 公司里的人,是不是也这么想?
因为真正推动 AI 往前走的,不是大众,而是全球那十来个关键决策者。只要他们还在坚定投入,市场有没有泡沫,其实都没那么重要。
所以相比讨论泡沫,当下更值得我们思考的是:我们是不是进入了一个新周期?要怎么判断?
也就是说,预训练的大周期是不是已经告一段落?行业的重心是不是要从「继续提升智能」转向「在现有模型上找新场景、新产品路径,做降本增效」?
曲凯:我们上期聊过,现在肉眼可见的是,模型公司在卷应用、卷收入。去年的时候,谁都想不到会有这种变化。
也许站在 Sam Altman 这些关键决策者的视角,他们捕捉到了什么信号,才会选择加码应用和工程。而我们拿不到那个维度的信息,只能从他们的行动反推。
而倒推下来,或许就能回答你前面提到的周期变化那个问题?
莫傑麟:你说的其实恰恰说明了判断周期的难度。如果真想判断周期,我甚至觉得要假设自己什么都不懂。
首先,就像我前面说的,AI 的方向是由极少数人决定的,而这些人的判断本身就很主观。有没有可能 Sam Altman 或 Meta 的团队也知道现在有泡沫,但他们仍然觉得值得下注?
再加上 AI 太烧钱,以致于它的发展速度和路径也很受宏观环境的影响。
而且周期判断没有绝对对错,它受太多变量影响。
比如前几年我们都觉得「不搞 AI 的公司不太行」;但最近大家却开始觉得苹果这种「没有过度投入」的公司反而挺好。
为什么会出现这种反转?
可能就是因为过去的叙事重点是 AGI,所以投入越多越好。但现在大家开始算 ROI,会精算每一块 Investment 和 Return。同时,这个季度 Meta、xAI、OpenAI 的投入都高得夸张,也让市场非常直观地意识到了 ROI 之低。
所以这轮最重要的一个结构性变化,是过去大家不看 ROI,现在所有人都开始看 ROI 了。
这也耦合了我们上期聊的:为什么 OpenAI 从 GPT-5 开始做整合?因为他们可能比所有人都更早意识到 ROI 这件事的重要性。
你怎么看待大家从「期待 AGI」,到开始「算 ROI」的这种变化?
曲凯:大家愿意接受大规模投入的前提,是 Scaling Law 依然有效。
如果 10 倍的投入真能换来 AGI,那还说得过去。但现在最大的问题是,Scaling Law 似乎失效了,后续 RL 也没有补出一个明确的 Scaling 曲线。
在这种情况下,模型公司还要投几万亿,市场当然会开始质疑它的价值和意义。就像你给瑞幸投一大笔钱,希望它一年开两万家店,结果瑞幸说要「从水泥造起」,那市场肯定不会买账。
莫傑麟:但这就是我不同意的地方。
我们调研下来,Scaling Law 不是失效了,而是没法被评估了。
而且把行业重心从提升智能挪开,本身也合理。现在大家普遍觉得模型智能已经够用,更当下的问题是成本、Infra、Agentic Layer、Context。这些地方才是接下来更需要投入的点。从行业角度看,这未必是坏事。
曲凯:对,所以从业者一直不觉得这有什么问题。还是得回到开头那个问题,就是讨论泡沫,得分开看中国、美国、一级、二级市场。
莫傑麟:是。如果模型训练进入平稳期,那美国一定有一些公司存在泡沫。
但我这次最费解的一点,是英伟达本体没怎么跌。跌得最多的,反而是 data centers 相关的标的,比如甲骨文。
这意味着市场的理解是,只要还在建 data centers,就必须继续买卡,所以英伟达依然是确定性最高的受益方。
这个逻辑挺有意思。大家一直期待 AI 从硬件切到软件,也在努力这么做。但从价格表现看,市场显然还没切过去。大家还是默认硬件是最大受益方,因为从算账角度,它确实不像有泡沫。
曲凯:关键还是结果。事实证明,过去几年最赚钱的还是英伟达,而软件就是还没有出现一个跑得特别成功、特别挣钱的案例。
莫傑麟:对。所以泡沫是个特别难讲的议题。
就像我们前面说的,价格不能完全反映预期。你可能心里预期「从硬件切到软件」,但也不会轻易去做空英伟达,因为历史告诉你,这么做大概率是错的。而且 AI 的结构变化太复杂,大多数人离产业较远,宏观本身又波动大,所以很难做出准确判断。
所以泡沫本质上是一种情绪。
它能反映市场对周期的「体感」,就是大家觉得周期可能在切换,价格需要调整。
但历史证明,十次泡沫里,九次都不是真的泡沫。
那这次讨论,到底是不是真能反映周期变化?这是我最近一直在想的问题。
曲凯:我记得 a16z 有个合伙人在播客里说过,现在虽然很多人在聊泡沫,但大家对泡沫的感知其实并不清晰。
他经历过 2000 年 .com 的那波泡沫。他说那时候根本没人讨论泡沫,大家只觉得兴奋。随便什么公司都能上市,甚至不需要收入,上市就涨。出租车司机也都在聊股市。
去年国庆 A 股也出现过类似的情况。我印象特别深,那几天真的是下楼随便碰到个保安都在聊股票,大家都在开户。结果节后马上开始跌。
但现在显然不是那种状态。
我也在想,历史上有没有哪个泡沫,是当时大家都意识到了它是泡沫?如果大家都明白了,那泡沫应该已经反映在价格里了,也就不会真的形成泡沫。
另外你说的周期的问题,我觉得这两年很难判断,还有一个原因是 AI 的变化太快了。AI 不只有日常波动,还有一系列小周期。
我们讲过很多次,AI 是脉冲式发展的。每一波热潮,都是因为模型能力出现了突破。而模型的突破本身就是一波一波来的。
最近最大的问题是,我们确实没有看到新的智能突破,甚至大家已经不再期待这一点。更多人相信,模型能力已经够用,接下来要拼整合、拼 Infra、拼降成本,让模型更可用、更落地。
从从业者角度,这当然是好事,因为这意味着会有更多应用能真正跑起来。
但从行业外部看,没有新的智能突破,就意味着没有「信仰充值」。
除非哪一天再来一个 DeepSeek 时刻,或者出现一个能接班 RL 的新概念,那 AI 才有可能再起一波。
你怎么看待未来的发展?
莫傑麟:我觉得未来会出现严重的分化。
这可能来自肌肉记忆,因为我对互联网中后期最深的感受是:Winner Pattern 特别明显。互联网后期跑出来的 Winners,后来基本都成长成了巨头。
我相信 AI 这波也会出现各个方向的 Winners。这些 Winners 是没有上限的,会持续成长。
那么判断 Winners 就变得非常关键。有可能 Winner 已经出现了,只是我们还没识别出来。
曲凯:对。所以我也想感叹一句,就是无论你怎么复盘、怎么经历周期,当你身处周期内部时,要做出准确判断真的很难。
现在回头看,23 年就是最好的时间点。那时候估值真的便宜,随便投都能赚。
莫傑麟:确实很难判断。
比如 23 年,大家都在谈「卡脖子」,觉得国内模型很难赶上美国。但现在,中国的开源模型已经很有竞争力了。我们跟国内的 founders 吃饭,大家都觉得模型端还有很多可以做的空间。
再比如,你记不记得在 24 年 10 月的时候,有多少人都在怀疑寒武纪?其中不乏行业里最顶尖的专家。但一年过去,情绪完全不同了。
所以我才说,泡沫是情绪词。情绪之下,真正重要的两个问题是:
1)周期。到底是不是哪个周期开始了、哪个周期结束了?
2)Winners。在不同的周期里,真正的赢家是谁?
回头看,很多 Winners 都是超出所有人预期的。23 年被低估的是中国模型,24 年是寒武纪。
而今年被质疑最多的公司是谁?是 OpenAI。一聊到泡沫,大家第一反应都是举 OpenAI 的例子。
曲凯:毕竟 Sam Altman 搞了不少骚操作(笑)。OpenAI 也确实享受了这波泡沫的红利,所以当大家说有泡沫时,他们肯定首当其冲。
莫傑麟:但真正享受最多红利的不是 OpenAI,而是英伟达哈哈。
曲凯:这倒挺典型的。过去这么多年,每一波大的热潮,最后赚钱最多的都是渠道。
比如游戏、教育、新消费这几波浪潮,最后赚钱的都是字节;教育和新消费那波,分众也赚得很舒服;线下连锁那波,赚钱的是商场,因为大家都要花钱抢位置。
而不管是字节、分众还是商场,本质上赚的都是投资人的钱,再往后就是 LP 的钱。
莫傑麟:是。但我想说的是,有没有可能我们对 OpenAI 的判断错了?有没有可能 OpenAI 最终走向的是一个和 Illya 在的时候完全不同的形态,但依然是一个极强的商业公司?
我没有结论。但我认为:
情绪往往和短期结论一致,但和中长期结论相反。
所以比起情绪,更重要的是周期和结构。因为不变的是,在每一个商业周期里,最终都会诞生真正的 Winners。
曲凯:对。所以我现在甚至觉得,一个公司在发展过程中被骂,反而是好事。
比如很多人骂 Manus,我反而替 Manus 开心(笑)。因为如果一个公司数据增长很好,但外界一直说它不行,那可能说明它在一个特别好的位置。
莫傑麟:Kimi 也是典型哈哈。
你说的也让我想到一个点:现在大家的 input 质量真的参差不齐。
比如最近我把所有讨论泡沫的文章都看了一遍,其中有一篇得出了一个非常煽动性的结论——OpenAI 的现金流要断裂。但它引用的数据完全是错的。
曲凯:这也是为什么我想找你聊,因为你跟华尔街的专业投资人接触得更多。
莫傑麟:但现在炒股,其实也不太看专业投资人的观点了。
现在二级市场越来越散户化。散户化之后,二级市场已经从「价值投资」迁移到了「Financial Engineering」的范式。
在这个迁移过程中,大家的关注点,从「绝对 insights + 长期趋势」,变成了「最近情绪是什么、叙事怎么走、哪里能挖 Alpha」。
结果就是,专业投资人也不愿意构建长期、绝对化的观点,因为他们的判断,很可能会和未来两三个月的市场风向完全相反。
相比之下,从业者的信息密度和参考价值反而更高。因为他们不靠二级市场赚钱,他们盯的是行业本身,更愿意从底层去总结真实的 insights 和趋势。
曲凯:确实。我前一阵和一个专业做二级的人聊,我说最近身边很多从业者都在买 Google,但 Ta 听完完全没反应,甚至不太理解为什么要买 Google。
莫傑麟:是。大家现在看到的世界真的非常不一样。我周围那些做二级的朋友,对预期和情绪特别敏感,但对绝对 insights 和相对趋势反而没那么敏感。而我们认识的很多 founders 恰恰相反。
关注预期和情绪本身当然也很重要。比如从这次泡沫来看,可以推导出目前的情绪和风险偏好非常低落,但预期又不低。那结果就是,很可能该跌的还没跌完,也可能因为短期情绪过于悲观,反而会出现强反弹。
但我觉得大家在 insights 和趋势上投入的时间还是不够。
比如我认为 25 年 Q3 真正值得研究的,是巨头的资本动作。
英伟达宣布投 1000 亿美金给 OpenAI,同一周,OpenAI 和 AMD 签了采购条款,没过两天,又和 Broadcom 签了新协议。这三件事连着发生,非常值得研究。
同时,Google 在 TPU 上的投入,也非常关键。
无论是 OpenAI 还是 Google,它们的动作其实都指向了同一个板块:半导体。这几件事加在一起,也标志着一个非常明确的结构性转向,就是上游算力格局正在重新洗牌。
再比如,我这次看了很多硅谷的文章,发现大家提到中国模型时,几乎没人提到字节。但字节明明是一个不可忽视的玩家,因为我们盘点过人才结构,发现字节的人才储备非常强。
所以预期和情绪固然重要,但还是得和 insights、趋势结合起来。
目前我自己的判断是:模型已经从「预训练周期」进入到「落地周期」了,而在这个周期里,会诞生新的 Winners 和 Loser。
曲凯:是。我们现在可能正站在两个周期、两个标准之间的交界处。
应用落地是趋势,所有做 AI 的人都坚信它一定会发生、未来会越来越好,但现在确实还没有特别明确的结果。同时,市场的重心正在从「AGI 的市梦率」切换到「落地结果的市盈率」,而这种切换本身就需要时间。
这也是为什么会出现一些泡沫。
但 AI 这几年一定是有泡沫的。一个高速发展的行业,本来就不可能没有泡沫,因为泡沫会带来更多钱,推动行业往前走。
只是不可避免的是,泡沫破的时候,总有人会成为养料。
但你会发现,每次泡沫破灭之后,都能跑出伟大的公司。
比如 PayPal 就是典型的从泡沫中成长起来的公司。回头复盘,他们最核心做对的一件事,就是始终让自己能造血、有足够好的现金流。
所以如果你是从业者,与其担心泡沫什么时候破,不如想清楚怎么让自己有健康的现金流。
42章经
思考事物本质
2025-11-26 13:12:00
原创 Celia 2025-11-26 13:12 北京
Ilya 回归,Taste 依然封神
过年了!早起发现 Dwarkesh Patel 新一期播客采到了 Ilya。
很久没有在一期内容里感受到这种 “被人类智慧安慰” 的体验了。
全程非常 insightful,而且更重要的是,Ilya 对谈的感觉,真的让观看采访的过程无比享受。像一个古希腊哲学家,对世界的本质有天生的好奇,对人又有一种特别真诚的关照。
这里给大家快速摘录一些要点:
1. 关于时代的转向
Ilya 给出了一个非常清晰的时间线划分:
2012 - 2020 年是研究时代:大家都在尝试不同的 AI 想法。
2020 - 2025 年是 Scaling 时代: 自从 GPT-3 出现后,Scaling 成了共识,并吸走了所有的注意力和资源。
2025 开始,Pre-training 的 scaling law 已经失效了 (核心因为数据有限),所以,我们正在重新回到 “研究时代”。之后不会再比谁的 GPU 多,而是看谁能找到新的算法。
2. SSI 的规划
Ilya 创办的 SSI (Safe Superintelligence) 目前的计划是 Straight shot——不发中间产品,直接憋大招做超级智能。
因为他感觉现在的 AI 公司为了市场份额,不得不陷入激烈的竞争,这迫使他们在这个过程中做了很多妥协。所以他不希望在中间过程受到市场干扰。
不过,这不意味着他会憋好几年,然后突然扔出一个神一样的 AI。
他对超级智能的定义更类似一个 “超级学习者”,也就是,在发布的那一刻,它可能更像是一个 “天才少年”。它会被投放到社会中,然后在各个岗位上快速实习、犯错、进步。
Dwarkesh 问他 “这种能像人类一样学习、进而变成超级智能的系统什么时候会出现?”,Ilya 一向很少给出具体的时间预测,不过这次,他出乎意料地给了一个窗口期 —— 5 到 20 年。
此外,外界对他一个常见的 challenge 是 SSI 只融了 30 亿美金,可能比不过大厂。但 Ilya 算了一笔账:大厂融的钱虽多,但大部分要用来服务用户做推理、养庞大的工程和销售团队。SSI 的钱是实打实全部投入到纯粹的研究实验中的,这在 Research 层面上其实非常能打。
3. 关于 Taste
Ilya 是公认的 Research Taste 最好的科学家,Dwarkesh 问他到底是怎么做判断的。
他分享了三个黄金标准:
生物学上的合理性:比如神经元这个概念,虽然大脑很复杂,但 “大量神经元连接” 这个结构看起来是根本性的。
简洁的美感:如果一个方案不够简洁、优雅,那它大概率是错的。
Top-down 的信念:当实验数据和你预期不符时,如果你对自己的理论有基于第一性原理的信念感,你会继续坚持坚持,相信只是代码有 Bug。这是平庸研究者和顶级研究者的关键区别,因为这种信念支撑他度过了无数次失败的实验。
4. 关于 Value Function
Pre-training 的红利吃完了,Ilya 认为下一步的重点该是 Value Function (价值函数)。
现在的 RL 还是很笨的。比如做一道长推理题,模型要等到最后一步做完了,才知道自己是对是错。 但我们在下棋时丢了一个子,立刻就知道这局完了,而不需要等到整盘棋下完。
人类的学习过程一向主要来自与环境的互动和内心的感觉,这是一种很高效的无监督学习形式。
Ilya 认为,未来的突破点在于让模型也具备这种直觉性的中途判断能力。如果攻克了这个学习机制,AI 的效率就会有质的飞跃。
对此,Dwarkesh 质疑说 “Value Function 可能很难学,因为推理的路径太复杂、太宽广”.
此时,Ilya 给出了一个非常 Ilya 式的回应:
“你听起来像是对深度学习缺乏信仰”。
Ilya 自己非常笃信,只要信号存在,深度学习就能学到。虽然很难,但没有什么是深度学习做不到的 (echo 前面顶尖 researcher 的信念感)。
但他也有半开玩笑地说:
“Unfortunately, we live in a world where not all ML ideas are discussed freely.”(好像在暗示他有想法但不能公开)
5. 关于 RL
1)Ilya 有一个非常反直觉的观点:RL 可能是在弄傻模型。
他用了一个非常有美感的形容:预训练数据不仅仅是文字,它是“整个世界被人类投射到文本上的样子”。预训练之所以强,是因为它试图捕捉这个庞大的 “人类思想投影”。而目前的 RL 方法可能实际上是在 “Undoing the conceptual imprint of pre-training” (撤销预训练的概念印记)。
这是为什么经过重度 RL 对齐的模型往往显得更笨或更缺乏创造力。RL 强行让 AI 去讨好人类的某个单一指标,却可能牺牲了它原本宽广的通用智力。(这听起来像极了应试教育...)
2)RL 已经比 Pre-training 更烧钱了
我们现在正处于一个很重要的转向。过去几年,大家以为最烧钱的是 Pre-training(预训练)。但 Ilya 透露,根据行业传闻,现在花在 RL 上的算力已经超过了预训练。
背后的原因是:RL 需要做非常长的 Rollouts,也就是不同的推演,这极其消耗算力,而每做一次推演获得的有效学习信号却很少。
(不过这种低效恰恰说明了 RL 还有巨大的优化空间,下一步要想办法设计出一种更高效的 Post-training 方法,比如更好的 Value Function)
6. 情绪 = 终极的 Value Function
为什么人类能在信息不全的情况下做出正确的常识性决策,而 AI 经常一本正经地胡说八道?
Ilya 提到了一个有趣的神经科学案例:一个因脑损伤失去 “情绪” 的人,虽然智商没变,但却连 “今天穿什么袜子” 都要纠结几个小时,完全无法做决策。
他认为情绪就是人类进化出的最有效的 “压缩算法”,帮我们快速剪枝,知道什么是重要的,什么无关紧要。
而现在的 AI 就像那个失去情绪的病人,它有逻辑,但缺乏那个指引它 “什么是对的” 的内在罗盘。
这也许是通往 AGI 的最后一块拼图。
7. 同理心是理解世界的最佳捷径
说回来,Ilya 最关心的还是安全和对齐。
而他目前想到的解法是:找到一种编码机制,让 AI 真正关爱有感知力的生命 (sentient Life)。
就像进化论在人类大脑中硬编码了同理心一样,我们需要找到一种方法,把这种对生命的关爱硬编码进超级智能里,这比通过各种规则约束,强行让 AI 听人类的话更靠谱。
而且他真的相信我们有可能实现这一点。
他提到了两点原因:
首先是一个极其硬核的、基于计算效率的理由。
我们之所以能理解别人的痛苦,是因为我们会用 “模拟自己” 的同一套神经回路去 “模拟别人”。
对于大脑(或者未来的 AI)来说,这是一种最高效的建模方式。既然我已经有一套代码来理解 “我的痛苦”,直接复用这套代码去理解 “你的痛苦” 是最省资源的。
也就是说,同理心可能是智能提升过程中的一种涌现属性,因为它是理解世界的最佳捷径。
那这就意味着,如果 AI 追求极致的预测效率和世界模型构建,它可能会涌现出类似的 “移情” 机制。
第二个理由是,人类进化过程中有一个非常神奇的特质,那就是我们进化出了一些很高级的奖励函数,比如 “社会地位”。
可是,要知道,“食物好不好吃” 非常简单,只要给大脑接一个味觉传感器,设定化学反应奖励就行。但 “社会地位” 是一个极其抽象的概念,大脑需要处理无数信息才能理解。基因本身不智能,它怎么知道如何连线神经元,才能让人类产生这种高级情感呢?
既然盲目的进化都能成功地把 “高级价值观” 对齐给人类,那么我们设计超级智能时,一定也存在某种方法,能把 “关爱生命” 这种高级目标硬编码进 AI 的底层——即使我们现在还不知道具体原理。
8. 关于语言对思维的影响
Ilya 提出了一个很有趣的观察:我们使用的语言,会反向塑造行业的研究方向。
比如,AGI 这个词是为了反驳 Narrow AI(弱人工智能)而诞生的。但这导致大家有点过度追求一个全能的基础模型,而忽略了真正的智能其实是动态的学习能力。
又比如,当 Scaling 这个词出现后,它太有力了,以至于所有人都觉得 “只要把模型做大就好”,而很大程度上停止探索了其他的可能性。
(所以,警惕流行词!)
9. 未来的市场格局
关于未来是不是只有一家公司垄断 Superintelligence,Ilya 又给出了一个基于生物进化的判断:不会,竞争喜欢专精(Competition loves specialization)。
即便 AI 再强,未来大概率也会出现分工。比如会有一家公司,不做别的,就专门做 “诉讼”。
很多公司在某个领域投入了巨大的算力和学习成本,形成了极高的壁垒,别的 AI 即使能去抢它的份额,从头学一遍也不划算。这会形成一种类似自然界的生态平衡。
(这对垂直行业创业者是很好的鼓励,只要做得够窄够深,通用大模型就很难降维打击。)
P.S. 采访还有很多精彩内容,推荐大家完整看一遍 Youtube 视频采访,可以点击 “阅读原文” 直接跳转 (友情提示,打开需要一点魔法)
42章经
思考事物本质
2025-11-23 20:59:00
原创 曲凯 2025-11-23 20:59 北京
AI 有泡沫吗?Scaling Law 还存在吗?未来一年的 AI 会如何发展?英伟达买还是空?
昨天刚发了和莫傑麟录的一期播客,我们总结了一下 AI 市场现在的状态,大概是:
1)23-24 年的上涨靠的是 scaling law 和 AGI 的共识;25 年以来,RL scaling law 还没有形成统一判断。
2)AI 模型是阶梯式发展,应用是脉冲式跃进,而当下偏向于一个微妙的空白期。
3)智能能否继续提升 in doubt,应用加速落地 for sure。
4)叙事逻辑在变化,之前叙事中涨起来的价格可能有泡沫,但 AI 本身的价值没有。
而在这其中,有相当多的问题还没有讨论完全,未来一年的 AI 会如何发展? 英伟达买还是空?多模态的机会在哪儿?具身的量产和落地是梦想吗?能源和数据中心的故事结束了吗?
所以,我们决定再拉个小型线上讨论会,一起聊聊。
时间定在下周六(11 月 29 日)上午 11:00。 具体报名信息见上方海报。
我们会优先通过回答更认真、与我们背景更匹配的朋友。最终参会资格请以工作人员通知为准。
期待和大家认识&交流!
2025-11-23 20:59:00
原创 Celia 2025-11-23 20:59 北京
Unbundle 往往提供了切入市场的机会,rebundle 往往提供了捕获价值的机会,而 rebundle 的权力很多时候取决于价值链中的稀缺资源
Marc Andreessen 常说:"这个世界上赚钱的方式只有两种,要么 bundle(组合) ,要么 unbundle(拆分) 。"
这句话放到 AI 时代,会打开一条非常有意思的分析路径。
所以这期我们想从这个视角出发,集中聊聊我们看到的一些机会。
目录
一个 “有护城河,但没有城堡” 的产品
一位硅谷顶尖 CEO 的世界观:万物皆可 Bundle
读完集装箱的历史,我对 AI 非常乐观
AI 圈最近很大的一个黑天鹅事件,是 Grammarly 的逆袭。
在此之前,我感觉创投圈的私下共识都是:
薄套壳应用很难有未来,功能单一的垂类 SaaS 也非常危险。Grammarly 这种上个时代的语法插件,理应是 ChatGPT 的第一批刀下亡魂。
但让我意外的是,Grammarly 不仅没死,反而活得更好了——年收入超过 7 亿美金,用户量突破 4000 万。今年还反向收购了两家我认为很有新贵气质的公司:Coda(新一代文档独角兽)和 Superhuman(一个口碑非常好的邮箱客户端)。然后,他们做了一个非常大胆的决定:将整个公司改名为 Superhuman,并推举 Coda 创始人 Shishir Mehrotra 出任新集团的 CEO。
我花时间仔细听了 Shishir Mehrotra 最近的两期播客。
听完之后,我有一种久违的兴奋感——这可能是我今年听到的,关于 “老公司如何在 AI 巨头中翻身” 最性感的一个故事。
Shishir 在播客中详细复盘了这场三合一大合并背后的战略决策,以及他对 Agent 的终局思考。
故事的起点很有意思。Shishir 说,Coda 和 Grammarly 最初认识,是因为双方融资 BP 的标题竟然一模一样:“AI-native productivity suite” (AI 原生生产力套件) 。
但他对 Grammarly 的判断是:这是一个 “有护城河,但没有城堡” 的产品。
这里的护城河,是指分发能力。
大家往往误解了 Grammarly,以为它的核心是 “语法修改”。
但实际上,它的核心技术是它构建好了一种能嵌入到 50 万个应用和网站的底层能力,让 AI 能在几乎所有网站、App、桌面应用上无缝读写、标注、修改。
也就是说,Grammarly 过去 16 年的牛逼之处,是构建了一条高速公路,能把 AI 带到你工作的所有角落。
相比之下,语法只是这条高速公路上跑的第一辆车而已。
但问题是,Grammarly 缺少一个核心的目的地。这就像 YouTube 只有 “视频嵌入” 功能,却没有 Youtube 官网一样。
这是他们要收购 Coda 的第一大原因,Coda 强大的文档中心就是 Grammarly 想要的大本营。
类似的逻辑下,Grammarly 又收购了 Superhuman。因为写 Email 其实是 Grammarly 的第一大使用场景。那与其作为一个插件寄生在别人的地表上,不如直接买下这个地皮。这样他们可以把 Agent、文档和邮件彻底打通,给用户一个更好的 AI 体验。
接下来,Grammarly 面临的第二个问题是:
这条高速公路上,过去只跑着一辆车——你的高中语法老师。
集团的新战略,就是把这条路开放出来,变成一个 Agent 平台,让无数车都能跑起来。
因为他们发现了一个很大的痛点:“AI 的最后一公里” 问题。
举个例子,亚利桑那州立大学是他们的早期客户之一 。大学内部开发了 5000 个 AI 应用和聊天机器人,几乎每个课程都有自己的 chatbot。
但结果根本没人用。
因为学生根本不记得要去打开那个 chatbot。
Superhuman 想做的,就是让那个教授 chatbot 直接嵌入到学生写作业的文档里,变成学生的数字孪生教授。
通过 Grammarly 已经造好的高速公路,他们可以成为整个 AI 市场的传送门。
同时,这也引出了他们收购 Coda 的第二个原因,Coda 能给他们带来一支现成的车队。
Coda 已经和绝大部分主流办公应用做了集成,这些应用可以变成无数新的 Agent,跑在这条高速路上。
我们可以想象一个场景:
过去,一个销售在写邮件,Grammarly 就像他的 “高中英语老师” 坐在他肩膀上,随时帮他改正语法错误,而未来,他的肩膀上会坐着一群人:
CRM Agent:提醒他 “这客户只对 A 产品感兴趣,别推 B”。
Support Agent:提醒他 “这客户之前投诉过,语气要软一点”。
Book Agent:他最近看了一本很喜欢的书《Radical Candor》,于是把这本书做成了一个 Agent,以后无论他在邮件还是 Slack 里和他人沟通,作者 Kim Scott 就像坐在他肩膀上,可以在合适的时候引导他把沟通变得更坦诚。
从第三方 App 的视角来看,他们也有很强的动力合作。
他给出了一个很生动的例子,试想,如果把 Duolingo 做成一个 Agent,跑在 Grammarly 的分发渠道上,会发生什么?
场景 1: 它看着你在网上读了三篇西班牙语文章,就自动帮你把今天的 “打卡” 勾上了——因为它知道你真学了。
场景 2: 它会主动入侵你正在阅读的英文文章,把里面 5% 你应该认识的单词,悄悄替换成西班牙语,这样你能不知不觉完成复习。
场景 3: 当你晚上再打开 Duolingo App 时,它不会再让你练 “餐厅点餐”,而是说:“我发现你今天在研究怎么买车,那我们今晚来练买车场景的对话吧”。
这几乎是对 App 这个概念的重塑。它不再是一个需要被动打开的界面,而是一个寄生在所有工作流中、主动服务的精灵。
以上就大概总结了 Shishir 的战略:Grammarly 提供 “高速公路”,Coda 和 Superhuman 提供 “大本营” 和 “核心车队”,而 Duolingo 这样的第三方就是各式各样的 “非机动车”。
我觉得他们的策略很有意思。
市场上一直有一个观点,最终 AI 的终局是 “得 context 者得天下”,而大厂占据了所有重要的用户 context,所以创业公司很难抗衡。
但实际上有一个问题,用户的 context 是相当分散的。以 Grammarly 为例,他们公司内部就在同时使用 972 个 SaaS 软件,而创业公司的机会就在于它可以构建一个中立的、跨平台的 AI 层把所有应用连接起来。
比如微软正通过 M365 + Copilot + Teams 的 bundle 建立一个 “封闭的围墙花园”,但微软只致力于让自己的封闭体系变得更好。
而 Superhuman 能在几乎任何 App、网页和工具中运行,包括 Office、Google Docs 等大厂根据地。
这是用开放生态的 bundle,对抗封闭生态的 bundle。
我在想,也许新时代并不存在所谓的 “入口” 之争,因为关键路径就不是 “用户打开 AI 入口”,而是 “AI 主动跑到用户身边去”?
Reference:
Why Grammarly Became Superhuman | Agents of Scale
Grammarly x Superhuman: The Future of Workflows | Grit
于是我顺藤摸瓜地考古了一下他的经历,之后有点明白了为什么 Grammarly 会把新公司掌门人的位置拱手让给他。
他可能是全硅谷最懂 “如何把不相关的东西打包卖出去” 的人。
过去 20 年,他几乎完整经历了所有最成功的 bundle 实践:
6 年微软:见证了 Office 套件的统治力;
6 年 YouTube(产品+工程负责人) :探索了订阅制的捆绑艺术;
Spotify 董事:定义了流媒体音乐的打包形式;
Coda 创始人:打造了一个加强版的飞书文档,核心逻辑也是把文档、表格、应用全都组合进一个文档界面里。
在他看来,bundle 是商业中最强大、但最容易被误解的策略之一。
他对这个模式的思考非常深入和精彩!我翻完了他过去所有的访谈和文章,集合起来,给大家做一个系统的梳理。
我们先从一个最基础的问题开始:Bundle 的用处到底是什么?
Shishir 定义了一套很有意思的用户分类标准。
他认为,对于任何产品,世界上只有三种人:
第一类是刚需用户 (Superfan): 他们必须同时满足两个条件:① 愿意为你的产品付全价 ② 有动力主动来找你
第二类是非刚需用户 (Casual fan): 上面两条至少缺一个(比如嫌贵,或者懒得找)。
第三类是无关用户 (Non-fan): 你的产品对他毫无价值。
传统的单点付费模式,其实只能赚到 “刚需用户” 的钱,而 bundle 的核心价值在于激活了海量的 “非刚需用户”。
比如 iTunes vs. Spotify。iTunes 最开始的模式是,用户想听一首歌,就需要花 $0.99 把它买下来,而 Spotify 提供了所有音乐的打包权限,让你能听到那些你 “还算喜欢、但不愿意花钱买” 的歌,这就盘活了很多潜在需求。
此外,bundle 最大好处是能够高效地平摊用户获取成本。
我们通常觉得单点付费最公平,买什么付什么,但其实它背后有非常高的隐形成本。
比如,对于一个小家电来说,它真正的物料成本常常只占零售价的 1/3。
剩下大部分都是营销和渠道成本。
换句话说,那个高昂的零售价,大部分是品牌为了 “找到刚需用户” 而付出的代价。
这就是为什么 “合约机”(手机+话费套餐)的商业模式如此成功,也是为什么亚马逊能把 “免费配送”(一个成本极高的物理服务)和音乐、视频打包在一起。
Bundle,就是在用 “非刚需用户” 的规模,来摊平高昂的 “刚需用户获取成本”。
那到底应该怎么制定 bundle 策略,把哪些内容捆绑在一起呢?
我的第一反应是:应该捆绑相似的产品。
但 Shishir 说,如果你捆绑的两个产品,用户群体高度重合,那你其实是在亏钱——因为这些刚需用户本来就会全价买这两样东西,这种组合只是在给他们白送折扣。最好的情况是,他们对另一款产品有一点兴趣,但并没有多到愿意全额付款。
比如 Spotify 的学生包曾经是一个非常成功的组合。它集合了 Spotify(音乐)+ Hulu(视频)+ Showtime(视频)。这乍一看没什么逻辑,但它的利润高得惊人。为什么? 因为调研发现,同时付费订阅这几家的学生非常少。这个包一推,Spotify 的忠实用户觉得免费看看 Hulu 挺好,Hulu 的忠实用户觉得顺便听听 Spotify 也不错。这就成功激活了双方原本不会转化的非刚需用户,双赢。
所以,总结来说,最好的 bundle 策略,应该是 “刚需用户要尽可能错开,而非刚需用户要尽可能重叠。”
那接下来的问题是,既然要把不同产品捆在一个包里,那赚到的钱该怎么分?
我觉得大多数人可能和我的第一直觉一样:按使用量来分,谁被用得多,谁就拿得多。
但这又是一个常见的迷思。
他认为正确的分配方式是看 MCC (Marginal Churn Contribution)。它的定义是:如果把这一个产品从包里拿掉,会导致多少用户流失?
比如,在有线电视套餐里,体育频道和历史频道的观看时长其实差不多。 但体育频道拿到的分成是历史频道的 20 倍。 为什么?因为研究表明,如果从套餐里拿掉体育频道,会导致 20 倍的人立即退订。
这才是 bundle 的核心:使用量不决定定价,不可替代性才决定定价。
那使用量和 MCC 之间是个什么关系呢?
Shishir 画了一个 2x2 矩阵。
X 轴: Usage (使用量)
Y 轴: MCC (边际流失贡献)
他认为,任何产品都可以被放入这个矩阵,而它所在的象限,几乎决定了你的商业模式。
对于右下角的产品 (高 Usage, 低 MCC) 来说,更适合卖广告。比如短视频,用户每天能刷好几个小时,但他大概率不会愿意为每个视频出钱。这种时候就不适合直接向用户收费,更适合把他们的注意力打包卖给广告主。
对于左上角的产品 (低 Usage, 高 MCC) 来说,更适合直接付费。比如最极端的是例子是健康保险(你希望尽可能用不上,但没它又不行) 。
这个直接向用户收费的过程,最简单的是单买单卖,但如果能做一定程度的 rebundle,往往有更高的获利空间。
而且,rebundle 不是一个单一层面的事,而是一个可以层层嵌套、不断演进的战略,万物皆可 rebundle。
还是以 Spotify 为例,你会发现它的套利空间是通过三层 Bundle 撑起来的:
第 1 层,它把 iTunes 上 $0.99 的单曲,打包成了 $10/月的曲库。
第 2 层,它把播客加了进来。把单纯的 “音乐包”,升级为 “音频包”,占据所有和 “听” 相关的场景。
第 3 层,它开始跨界,把自己和 Hulu、Showtime 甚至电信运营商捆绑,用自己的刚需用户去交换全世界的非刚需用户。
这其实给我们提供了一个极其开阔的视角:我们现在的业务,能不能在现有的 Bundle 上,再捆绑一个更大的、或者跨界的 Bundle?
尤其是当我们把目光投向现在,AI 的出现,可能会让 bundle 策略变得前所未有的重要。
Shishir 把生产力工具分成了三个时代: 最早是 Word、Excel 的数字化时代,然后是 Google Docs、Figma 的协作时代,现在,我们进入了 Agent 时代。
在过去,捆绑的产品(如 Office 三件套)虽然边际成本为零,但开发成本是很高的,这天然限制了巨头能添加的产品数量。
但现在,软件的开发成本也在迅速逼近于零。
这意味着,现在的 AI 产品是 “双重低成本”(开发成本低、边际成本低)的。
这必然导致一个软件大爆发:
首先是无数解绑的,小而美的单点 Agents 涌现,紧接着,平台会迅速将这些散乱的 Agent 聚合成套件。
这对 AI 创始人的启示是:AI 领域 unbundle 的窗口期,或者说单点工具的红利期,将非常短暂。所有小的 AI 工具,如果不能迅速证明自己有独特的竞争力和不可替代性,就必然会被巨头捆绑。
此外,AI 还会打开的一个可能性是,历史上所有的套件都是标准化的,而 AI 可以使 “千人千面的动态 bundle” 成为可能。
未来,产品可以实时分析一个用户的个性化数据,为他定制一个 bundle 策略。这个组合里的产品、价格,对你来说是独一无二且最优的。这就直接实现了经济学家梦寐以求的 “一级价格歧视”,对每一个人实现价值榨取的最大化。
写到这里,我想多说一点。
Shishir 说他对 bundle 的思考已经到了痴迷的程度,以至于他老婆都受不了 “OMG,他又开始聊 bundle 了”。
在他眼里,bundle 不仅是一种商业模式,更像是一种世界观。也就是时时刻刻思考 —— 如何把事物拆解成最小单元,然后以最妙的方式把它们重新组合起来。
比如,医疗保险就是 bundle 理论最极致、最深刻的体现。
医保的本质,其实是把 “健康的人” 和 “生病的人” 捆绑在了一起。健康的人付费但不使用,生病的人产生巨额花销。如果没有这个 bundle,很多人会因为一次重病立刻破产。
而这个 bundle 又被进一步 rebundle。
在美国,它被捆绑在了 “就业” 上(公司福利)。
在很多其他国家,它被捆绑在了 “国籍” 上(全民医保)。
所以,很多时候我们争论的所谓 “意识形态” 问题(比如政府是否该管医保),拆解到最后,可能只是一个策略问题:
为了取得系统最优解,是把医保和 “就业” 捆绑更好,还是和 “国籍” 捆绑更好?
Reference:
The Art and Science of the Bundle | Invest Like the Best
Four Myths of Bundling
Unbundle 往往提供了切入市场的机会,rebundle 往往提供了捕获价值的机会,而 rebundle 的权力很多时候取决于价值链中的稀缺资源。
比如,以内容行业为例,Ben Thompson 有一个经典的拆解,我们可以把内容传播的价值链拆分为 5 个部分:
人类的每一次传播革命,都会解绑这个价值链上的一个环节。
在没有文字的远古时代,这五个环节是完全捆绑的。一个想法的诞生、讲述、传递和被听到,是同一个过程。
第一次解绑,来自文字。
自此,“消费”这个环节被解绑了。想法可以被记录下来,让不同时空的人去领会。
但这时,内容还必须靠人一个字一个字地抄写,这极大限制了思想的留存和传播。
第二次解绑,来自印刷机。
这解决了 “复制” 的瓶颈,知识第一次能像流水线一样扩散。
但此时,“分发” 又成了核心的关卡,所以那个年代的报社、电视台是一个集权中心,非常赚钱。
第三次解绑,来自互联网。 它让分发的成本彻底消失。
此时,整个价值链上只剩下了最后一个 bundle:产生想法,和将它具象化的过程。
这也是我常常感到痛苦的地方,我有很多想写的选题,但实际写出来是一个拖延的、费劲的过程,因为我必须把自己网状的思考,用线性的逻辑一个字一个字梳理清楚。
而 AI 推动了人类传播链上的最后一次解绑。它能帮你自动生成、延展、补全,一个 idea 不必完全由你加工。
而且,过去,一个创作者的风格很难被模仿,一个人的音容无法脱离她本人而存在。
但现在,大模型就像是一个互联网内容的 “取色器”。我们可以一键提取一个人的音色,一件衣服的版型,一个学者的视角......并将他们重新组合。
因为 llm 的原理就是把一切概念打散、向量化、细化到最小的颗粒度进行消化,然后以任意的抽象层级进行提取,所以,比特世界里的任何一个要素都具备了 unbundle & rebundle 的可能。
也就是说,AI 把比特世界变成了一块可以随意拼拆的乐高。
写到这里,我脑子里开始思考一个问题:
“原子世界里,有没有过类似的东西,也曾被拆成一个个可以自由组合的小单元,然后引发了一些有趣的改变?”
我立刻能想到的例子是集装箱。
集装箱听起来很无聊,但它做的事情和 AI 在某些方面很像:
集装箱重塑了实体经济的供应链,让货物可以在世界范围内相对自由地运输和流转。
而 AI 重塑了知识供应链,让过去无法流转的 “隐性知识” 和 “非结构化数据” 得以在全球任意一个角落被调取和重组。
于是,我又去翻了一些资料,读完发现,集装箱以一种我从未预料到的方式,影响了这个世界的走向。
在集装箱出现之前,卡车、火车、轮船各有各的标准,长途运输极度不可靠且昂贵,所以企业必须选择 “垂直整合”。福特当年甚至自己种橡胶树、自己炼钢,就是因为不敢依赖外部供应链。
集装箱和它背后的标准化协议,带来了前所未有的便利性和可靠性。
它的一阶效应所有人都能想到:物流的效率大大增强了。
但更重要的是它的二阶效应:
制造业被解绑,工厂不需要再建在一起,而是可以去中国生产、去越南组装。
当企业开始在全球范围内寻找供应商,这种竞争就迫使供应商在各自的细分领域细分领域卷到极致。你不能只是个 “还行的制造商”,你必须是 “全球做显卡最好的专家”。
而当每一个零部件都变得高度专业化、模块化时,类似个人电脑这种复杂的产业诞生了。这是之前任何一家公司自己绝对做不出来的。
而且,更进一步的是,集装箱彻底改变了经济增长的形状。
GDP 不再是线性增长,而是 “分形式增长”。
所谓 “分形”,就像是一片雪花——你放大每一个微小的局部,都会发现它有着和整体相似的结构,能无限分叉。
过去,因为什么都自己干,企业没办法在每一个零部件上都做到世界顶尖,创新被锁死在一个公司的内部能力上限里。但如今,集装箱带来了 “局部创新”。不需要任何一家公司从头到尾重新设计整个系统,做硬盘的厂商只需要专心把硬盘做得更快、更小,而不需要去管显示器怎么造。增长开始发生在每一个微小的分叉末端。整个行业的创新速度被指数级放大了。
很多经济学家后来回溯数据发现:
全球 GDP 曲线在 1960 年代之后突然加速了一整个数量级。
原本一个公司干所有零件,后来每家公司卷自己的 1 平方厘米,而每 1 平方厘米的创新,都能被整个行业捕获。
局部创新 × 模块化 × 全球拼接 = 一个全新的增长曲线。
想到这里,我突然会觉得 AI 的未来恐怕比我预想得要更加乐观。
如果集装箱让 “制造” 在全球流动,那么 AI 正在让 “能力” 本身在全球流动。
以前,一个优秀的文案、一个天才程序员,他们的能力被锁在自己的大脑里。你想调用这些能力,必须雇佣这个人,并经过复杂的沟通与磨合;在 LLM 出现之前,软件与软件之间也是不互通的。要让软件 A 处理软件 B 的数据输入,往往需要复杂的 API 开发或者人工搬运。这些都类似于集装箱出现前不可靠的长途运输。
而 LLM 的出现,可以说创造了一种智能集装箱,所有的认知劳动都可以用高维空间中的向量运算统一表示,这些问题都可以得到解决。
那么,接下来会发生什么?
如果遵循集装箱的历史,我们大概可以做出这样一些推演:
1. 未来的竞争将分化为两极:
一端是极致的组件专家,他们把某一个细分领域(比如专门做金融风险建模的 AI)卷到世界第一;
另一端是极致的整合大师,他们利用对人性和商业的深刻理解,将这些智能模块 rebundle 起来,构建出前所未有的新物种。就像集装箱最终成就的不是船运公司,而是苹果、戴尔、宜家这样的 “系统整合型公司”。
2. 创新速度会呈现 “局部创新 × 指数叠加” 的爆炸式增长。
每一个 AI 组件每提升 10%,会让依赖它的所有业务同步提升。
每个业务提升一点点,公司就会多腾出很多人力,这些人力又反向推动更多创新。
我们有可能迎来一个指数进步的新世界。
有人担心未来会没有事做,但我完全不这么想。
当创作、开发、生产成本无限降低的时候,长尾市场不再是 “没人愿意做的小众需求”,而是一个巨型的新经济带。
过去长尾供给为零,是因为做个性化服务的边际成本太高。
但 AI 时代,生产成本可以大幅下降,分发精准度可以大幅提升,于是,小众需求终于可以在经济上闭环了。
今天 Spotify、Netflix 已经证明 “长尾内容贡献了主要的观看时长”,但这还只是内容领域。
未来我们可能会有:
长尾宠物心理师 (只教授 “如何养育有轻微分离焦虑的英短猫”这种超窄主题)
长尾健康方案(根据你的心率、昨晚睡眠深度和今天要开会的对象,自动调配咖啡因毫克数)
长尾餐厅 (专门复刻爆款剧目里 “最让观众想吃的一道菜”)
....
到时候,长尾的总和将比头部更大。
3. 我觉得职业的分类方式会发生非常根本的改变。
今天我们还把 “工程师”,“律师” 视为一个整体职业,
但在 AI 的拆解下,这些职业会被分解成几十种可租用的能力。
你不需要雇一个全能的工程师,你只需要按需调度一串能力链。
纳瓦尔之前也讲过一个类似观点:我们认为理所应当的全职工作,其实只是历史长河中的一段特例。
在 AI 时代,因为企业需要的能力模型变化太快,而寻找外部人才的交易成本又在急剧降低,所以未来的白领工作会逐渐走向 “好莱坞模式”,也就是大部分人只以项目制的形式合作,而不会加入一家公司。
大家像拍电影一样,为了一个项目迅速集结。导演、灯光、场务,各司其职。项目结束,剧组原地解散,所有人各自寻找下一个剧组。
未来,人可能并没有一个固定的职业,而是一个综合的 “向量”。
能力 × 经验 × 兴趣 × 价值观 = 一个人的职业 embedding
AI 会基于你的所有微小特征,帮你寻找到最合适的一份工作。
这是我觉得未来最 exciting 的地方。
最后,回到开头的那句话:"这个世界上赚钱的方式只有两种,要么 unbundle,要么 rebundle"
从古至今,unbundle 是技术的宿命,而 rebundle 是商业的使命。
技术总是倾向于把东西拆得更细、更碎、更专业。
蒸汽机让体力变成了可调用的模块
云计算让算力变成了可调用的模块
集装箱让商品变成了可调用的模块
AI 让智能变成了可调用的模块...
但价值总是在于商业如何把这些碎片,用一种独特的逻辑重新组合起来,去解决一个新的问题。
这或许是我们这一代人的最大红利:
在一个能力被极度 unbundle 的世界里,能够通过 rebundle 解决复杂问题的人,将拥有前所未有的杠杆。
Reference:
Reshuffle | Sangeet Paul Choudary
The AI Unbundling | Stratechery
1309 Naval Ravikant | Joe Rogan Experience
更多阅读:
Figma 如何战胜 Adobe 等六篇 | 42章经 AI Newsletter
为什么说 AI 还没到泡沫?等四篇 | 42章经 AI Newsletter
P.S. 很多朋友反馈希望以邮件的形式订阅,所以我们给 AI Newsletter 的新专栏单独开了一个网站,感兴趣的朋友可以点击 “阅读原文” 通过网页版订阅 (友情提示,打开网页需要一些魔法)。
2025-11-16 20:58:00
原创 曲凯 2025-11-16 20:58 中国香港
终于懂了,抖音是这样长成 8 亿 DAU 的庞然大物的
2018 年,北川通过校招加入抖音,亲历了它从起量到赶超快手的关键三年。从字节离开后,他又投身 AI 创业,近期推出了在圈内刷屏的 Lessie AI。在这期播客中,北川以内部视角,带我们梳理抖音崛起的关键决策,也分享了他从字节到创业的思考。
本期播客原文约 32000 字,本文经过删减整理后约 10000 字。
曲凯:抖音是什么时候开始做的?
于北川:正式立项是在 2016 年,17 年七八月份开始起量。我是在 18 年年初、还没毕业的时候,以实习生的身份提前加入的。
曲凯:我记得那个时候,字节还叫头条。
于北川:对。我们那届校招的时候,大家还不太愿意去头条,因为当时今日头条给人的感觉有点土土的。
我当时是在官网看到头条在招「社交产品经理」,觉得挺有意思。我想做产品,其实在某种程度上就是因为想做社交,而且当时很难想象头条的社交产品要做什么,于是就报了这个岗位。
当时有很多交叉面试,面到最后才发现原来是做抖音。
我记得最后一轮是和卷卷(抖音早期产品负责人、原字节跳动 PICO 副总裁)聊,聊了很多。最后他问我:「你听过抖音吗?」
我说:「没有」(笑)。
那时候抖音的量还不大,那也是我第一次知道抖音这款产品,之后才慢慢成了它的用户。
曲凯:我记得在 17、18 年的时候,头条确实不是一个很常规的选择。一方面就像你说的,大家觉得头条比较土——土可能都是一个委婉的说法,当时挺多人觉得头条有点 low(笑)。
而且那时候,大家对抖音能不能做起来,也还有很多争议。
于北川:对,我印象也很深。
所以我选择加入抖音的时候,身边有不少人都挺费解的,因为很多人当时并不看好这个产品。
抖音不是第一个做短视频的应用,像小咖秀之类的产品也起过量,但很快就消失了。所以大家会觉得,短视频是不是就是一波流的产品。
当时我们内部也不太确定这个产品的天花板究竟有多高。
所以无论从外部还是内部看,抖音这个产品一开始都存在很大的非共识,大家都会质疑它的长期留存。
但与此同时,抖音的数据在持续上涨,增速非常快。
曲凯:所以你加入的时候,团队大概是什么状态?
于北川:非常年轻。我当时的团队里,一半左右都是校招生,整体氛围很「创业」,和我之前实习待过的腾讯、京东都完全不一样。身边的人都特别忙,永远在做一些很重要的事情。
曲凯:当时抖音就已经算是起量了吗?
于北川:对,算是起来了一些。整个过程其实非常快,经历了几波。
第一波比较大的增长是在 17 年下半年。
当时有个叫「冲顶大会」的产品很火,就是大家直播答题、分奖金。后来字节也做了类似的「百万英雄」,把它做成了 SDK,放到头条、西瓜、火山、抖音等产品里,希望带动增长。
我那时候还没毕业,发现身边的大学生对「百万英雄」这种形式很感兴趣,真的会因为它去下载一个新产品。而因为大家觉得头条有点「土」,就会去下抖音。抖音的内容又刚好吸引了这些高校里的年轻人,很多人就留了下来。
第二波是在 17 年到 18 年春节,当时出现了一波非常偶然的增长。
为什么说偶然?是因为火山原本有一个春晚的资源位,但因为某些原因被让给了抖音。抖音拿到这个资源位后,春节期间流量翻了一倍,也突然迎来了很大的增速。
这一次,也让字节内部第一次真正看到了抖音的增长潜力。
再到后面,18 年我们又做了很多动作,加速了抖音的增长。
到 18 年底、19 年年初的时候,抖音的 DAU 就已经反超快手了。
曲凯:在这个过程中,你印象最深的几个阶段或节点是什么?
于北川:抖音的整体发展大致可以分成几个阶段。
从 17 年 6 月到 20 年年中,是抖音的高速增长期:
17 到 18 年是起量阶段;
18 到 19 年,我们追上并超过快手,坐上了短视频领域的第一把交椅。
19 到 20 年,在超过快手之后,抖音成为仅次于微信的最大 DAU 产品。
20 年之后,抖音的重点转向电商、本地生活等商业化方向。这也是现在抖音投入最激进的部分。
我后来听内部人讲过一个故事。当时字节决定做短视频,是因为一鸣画过一条线——这条线对应着内容时长:
起点是 0 秒,对应文字和图片;
终点是 1 小时以上的长内容,比如电影、电视剧,这些已经有平台在做;
1 到 30 分钟的中视频有 B 站;
而 0 到 1 分钟的短内容,还没有对应的产品,有很大的空间。所以字节要做。
曲凯:非常合理。
于北川:是的,我觉得这就是很「一鸣式」的思考。
之后内部立项了很多 App,包括火山、西瓜、抖音。不过西瓜后来更多做中视频。
抖音最开始在字节系内的资源其实很少,大家对它的预期也不一致。有人认为它的天花板是 600 万 DAU,而最乐观的预测也不过 1200 万。
所以在抖音起量之前,包括到 18 年 DAU 已经有 3000 万的时候,我们内部依然很焦虑。
为什么?
原因很简单:我们普遍认为,一个消费级产品的 DAU 不可能太高。
从事后的角度看,我们今天有很多理由解释抖音为什么能做这么大。但在当时,没有人能想象,一个娱乐消费产品可以在中国做到 8 亿 DAU。
那时除了微信,DAU 最大的是支付宝,差不多 4-5 亿;而微博、今日头条这样的产品,基本在 1-1.5 亿就停了。另外,当时快手已经有 1 亿多 DAU 了,是很强劲的对手。
所以我们对增长和产品天花板都很焦虑。它涨得越快,我们越焦虑,因为我们可能离天花板越来越近了。
那时为了突破天花板,我们做了很多尝试。比如从 18 年到 19 年、甚至到 20 年,抖音最重要、也是战略级的事情,就是做社交。
社交和社区有很多种定义(大家有兴趣可以去读下 Albert 这篇采访,把社交、社区讲得很透:拒绝三亿美金 offer 的人 | 42章经),当时我们想做的,是类似 Ins 或微信朋友圈那种「先有关系、再有内容」的社交,也投入了非常多精力。
曲凯:我能不能这么理解:当时你们发现 DAU 的天花板就是微信,对自己的天花板又不太自信,也比较焦虑,所以为了突破天花板,就决定去做微信擅长的社交,试图靠拢微信级的 DAU 规模?
于北川:某种意义上来讲,是的。
当然微信是个特例。但为什么微信或 Ins 这类产品的 DAU 都很高?因为用户需要互动。当关系链越密,用户打开的动机就越强。哪怕 Ta 没有特别强的内容消费需求,也会因为想要互动而打开 APP。
所以我们当时的认知是:社交能增强长期留存,也能加速用户泛化。
于是我们在「人与人的互动和社交」这件事上做了很多探索。一鸣当时对这件事也非常执着。
曲凯:合理。但最后是不是那些探索基本都失败了?
于北川:我觉得算是失败了。
曲凯:回头看,18 到 20 年,甚至再往后两年,市场就已经没什么机会了。尤其是社交这块,我印象中从 18 年开始,就再没跑出来过大的新社交产品。
现在经常有人质疑「字节为什么做不好社交」,但放大来看,当时不只是字节,全国也没有谁能做成一个新的社交产品。
不过我觉得,字节做不好社交,还是有它的原因(笑)。
于北川:我认可。从根本上讲,字节没那么擅长做人与人之间这种生态的、关系性的事。
曲凯:对,它的运作方式、组织形式、企业文化等等,可能就决定了这一点。
于北川: 是。大家经常说字节喜欢做 AB 实验、喜欢看数据,这当然带来了很多好处,但也带来了一些典型问题。
在做社交这件事上,这些问题就暴露得很明显。
因为数据是可以被 hack 的。比如有同学能很快把抖音的好友中位数提上来,另一个同学也能迅速把互动频次拉高。
曲凯:最简单的方式,可能就是让用户做一些动作,然后领积分、领红包之类的。
于北川:对。但用户最后未必真的会在产品里发生自然的互动。
当你把社交这件事拆解成一个个细碎的指标,它就缺乏了整体性。而做好社交,恰恰需要整体性和连贯性的思考,要让用户能自然地在你的场景里流转。
曲凯:而且我觉得,做跟人相关的东西也很需要品味。
我不是说字节没有品味啊(笑),而是想讨论另一个问题,就是我一直很好奇,为什么头条没有品味,而抖音有?
我应该是在 17 年就开始用抖音了。当时身边的人还没那么喜欢,但我已经很喜欢了,还写过一篇文章(回顾:日聊投资三个人,日刷抖音三百条 | 42章经,发布于 2017 年 6 月)。
我们先不讨论品味的高低,但至少大家都会承认,头条和抖音的品味是不一样的。
那你觉得这是为什么?明明这两个产品都是一家公司做出来的。
于北川:这是个很有意思的观察。我觉得「调性」这个词可能更合适一点。
抖音之所以能成功、后来能战胜快手,其中一个非常重要的原因,就是它起点的调性足够高。
当然,头条能成功,可能也是因为它选择了那样的调性,否则它也不一定能起量。它可能会变成另一种知乎。
曲凯:不太可能(笑)。它想做知乎没做成。可能会变成另一个腾讯新闻?
于北川:哈哈,那我们说回抖音。先看当时的短视频市场环境。那时比较大的产品,就是快手和火山。
17 年快手已经具备一定量级,18 年时 DAU 已经相当大了。同期,火山在 17 年增速也很快,18 年做到 3000 多万 DAU,一度远高于抖音。
那为什么火山没能继续起来?
因为火山和快手太像了。
火山很多早期用户其实是从头条导量来的,而头条用户和快手用户重叠很大,这导致火山的种子用户更偏好消费「快手类」的内容。
所以从市场定位上看,当时火山和快手形成了直接竞争。火山在增长时自然会遇到很大的上行压力,因为那时快手体量更大,增速更快,生态更成熟,创作者体系也更完善。
在这种情况下,抖音是怎么冲出来的呢?有三个关键原因:
第一,抖音 day one 就坚决不从头条导用户。这是卷卷当时做的非常对的决定。自己起量虽然更难,但那是一条难而正确的路。
第二,抖音的品牌元素更年轻化,也更有独立审美。在 17、18 年时,抖音可能是中国较大的 APP 里,唯一选择全黑 UI 的。黑色虽然不利于阅读,但抖音靠 UI、Logo、名字等,建立起了独特的品牌调性。
第三,强大的内容运营。
你如果在 17 年下半年打开抖音,会刷到很多极限运动的视频、很酷的小哥哥小姐姐,还有很多技术流内容。
在内容池不够大、用户量还不多的阶段,机器学习和推荐算法还起不了太大作用,所以抖音当时有一个「精选标签」,由团队挑选优质内容,通过产品策略或运营手段让更多用户看到。这其实代表了团队对内容社区的引导。
曲凯:我觉得这就是品味。运营的品味。
于北川:对。所以这三点,让抖音吸引了更多当时的年轻用户。
曲凯:是。而且你刚才提到一个点,你说当时你进去的时候,一半的产品经理都是应届生。
我刚才还在想,比如现在豆包里的产品经理,你敢说有一半是应届生吗?肯定没有。
于北川:可能比例没那么高。那时候字节是真的很相信年轻人。
曲凯:不过当时是因为字节相信年轻人,还是因为抖音这个项目没那么受重视,所以没调太多人过来?
于北川:主要还是因为字节相信年轻人。我坚信这一点。
现在的字节可能还是相对相信年轻人,只是有经验的人确实变多了。
而且抖音独特的一点是,它的增速足够快,所以年轻人能获得更大的空间。
曲凯:对。我这两年一直在跟人讲,我觉得从 20 年、甚至再往前一两年开始,给年轻人的机会就少了。大家没那么多机会经历高速增长。
于北川:是。我觉得很多优秀的年轻人确实需要更多的机会和红利。
曲凯:我会更激进一点,我觉得是需要打仗。
于北川:对对,这个表述挺准确的。我们可能是最后一批吃到移动互联网红利的人。再往后,哪怕一个人资质再好、再聪明,也很难再加入增速这么高的组织,能获得的成长空间也有限。
曲凯:那几年想要成长的人,可能都去搞 Web3 了。不过这两年,AI 又给大家带来了机会。
于北川:对。我觉得某种意义上讲,AI 拯救了所有人的灵魂。
我是 96 年的嘛,像我们这一代人,上学时先后见证了 PC 互联网、O2O、移动互联网的崛起。好不容易毕业赶上移动互联网的末班车,等到自己有一点能力和资源时,却发现战役已经快速结束了、红利也没了。
所以在 AI 出现之前,大家都挺躁动的,包括我自己,也焦虑过、绝望过。
AI 的出现,确实拯救了整个行业。
曲凯:OK(笑)。那我们讲回「运营的品味」。
这里我有个问题,就是「有品味」是不是和「大众性」矛盾?比如一个特别有品的杂志,大概率不会太大众。那你们当时是怎么解决这个问题的?而且我理解,产品到一定规模也都得靠推荐算法,那时候又怎么保持品味?
于北川: 有两个关键因素,一是早期用户,二是分发器。
在产品的 0-1 阶段,最重要的是选对早期用户群。
抖音最早吸引的主要是年轻人,而年轻人有一个很大的优势,就是兴趣广泛,也因此更容易泛化。
举个例子,你很难让我爸妈去看二次元视频,但如果让一个年轻人去看「土味视频」,Ta 会愿意试试看。
有了这样的人群之后,如果能及时引入更多垂类创作者和内容,就能进一步扩展用户。
所谓的「泛化」,本质上就是不断引入新的内容,让推荐系统去学习、去分发,推给更多可能感兴趣的用户。而因为抖音的用户更容易接受不同类型的内容,这些新内容就能在社区里逐渐做起来,进而吸引更多愿意消费这类内容的人进来。
而抖音的单列分发器又非常强大,这让整个过程变得特别高效。
极致的分发效率,极大加速了内容的泛化。
相比之下,快手、小红书、B 站那样的双列选择器,分发效率和泛化效率都弱得多,因为用户得先自己筛选「想看什么」。
曲凯:我记得当时有很多关于单列 vs 双列的讨论。
于北川:对,当时我们内部也争论得很激烈。
快手是很后期才改成单列的,早期它的双列做得非常极致,前端显示的信息很少,没有点赞数,基本只能看到封面,甚至分不清是视频还是图文。18 年时,快手的图文内容比例也确实比较高。点进封面后,下滑看到的也不是下一个视频,而是评论区。
这样的机制有两个直接结果:第一,它让流量分发更平均、更公平;第二,它天然更适合普通人创作。
所以在那个阶段,快手的投稿率天然高于抖音。
这其实也说明了一个更底层的逻辑——分发容器决定了分发效率,也决定了生态的走向。
什么意思?
快手的双列逻辑,让流量分布更平均,也更像一个社区,互动性更强。所以当时不少人都觉得,快手可能会成为中国的 Ins。
这也是为什么,虽然抖音在 17 年就已经确定了单列形态,但我们当时对这个选择并没有那么自信。单列的分发效率虽然更高,但用户主要在单边看这个全天候电视机,互动会更弱,所以我们担心产品的长期互动属性太低。
曲凯:那你们内部既然讨论了这么久,没想过干脆 AB Test 一下吗?
于北川:涉及到双边生态和用户信任的改造,是很难 AB Test 的。
要测双列,就得让一部分用户只能看双列,另一部分只能看单列。可创作者那端是分不开的。你想测双列用户,但 Ta 关注的创作者发的却是单列内容,那怎么测?
所以要么只能测消费侧的影响,要么只能测创作侧的影响,很难设计出尽善尽美的 AB Test。
曲凯:所以最后讨论下来,还是决定维持单列?
于北川:对。因为抖音确实涨得太快了。
曲凯:就是在增长面前,一切都不是问题了(笑)。
于北川:是的。我们从来不焦虑短期 DAU,因为 DAU 涨得真的很快。焦虑的反而是长期留存,所以我们才去提高互动,去做社交。
曲凯:那前面讲的这些互动、留存问题,最后是因为涨得够快就自然消弭了,还是你们确实做对了什么?
于北川:早期靠的是抖音团队对品牌调性的坚持、对内容的把控。
但坦白讲,到中后期,容器定型、分发机制成熟后,人能发挥的作用就没那么大了。
虽然我们现在能后验地总结出很多「为什么」,但在当时,我们谁也不知道抖音为什么能涨到这么高的 DAU,也说不清为什么单列的商业化就一定更好。
曲凯:那你觉得抖音的 DAU 能做到这么高,最核心的原因是什么?
于北川:足够「无脑」。
抖音最大的竞争对手其实是游戏。
当你无聊时,打开手机第一件事是什么?打一把游戏,还是点开一个「不用动脑」的产品?
一旦你能做出一个让人无脑打开的产品,这个心智就是穿透一切的。
曲凯:我突然想到了一个点——怪不得短剧这么火,因为短剧底下的评论第一条总是「我先把脑子存在这儿」哈哈。
我觉得字节的逻辑,就是分发所有无脑的内容(笑)。
于北川:这我可不敢讲哈哈。
曲凯:你看,抖音是无脑短视频,番茄是无脑爽文,红果是无脑短剧。
但确实,人们很多时候,尤其是在会议间隙、通勤上下班时,就是不想动脑,对吧?
于北川:我觉得这就是人性。
这类产品的天花板天然更高,因为需要放松的人一定更多。或者说,每个人每天都需要一段放松的时间。
另外,如果说字节早期有一条主线,那一定是推荐系统。而推荐系统在分发这类「无脑内容」时有天然优势,因为用户打开频次高、停留时间长、能积累更多消费数据。这些数据又会反过来让算法继续分发更多类似内容。
曲凯:是。我在想,如果下一个创业者来跟我说要做「下一个抖音」,我可能得先判断,Ta 做的内容够不够「无脑」(笑)。
那回头看,18 到 20 年这三年,抖音还有什么特别重要的核心决策?
于北川:最重要的事就是做社交。
曲凯:重要但未成功(笑)。
于北川:对。幸运的是,这件事成不成功,对抖音的天花板影响没那么大。
但那时候我们确实很焦虑,也做了很多疯狂的决策,比如买下 18 到 19 年春晚的冠名权。
当时一鸣非常激进,他希望能让用户尽快在抖音内建立社交关系,形成这种心智。
而春晚这个舞台历来都有「神话」,比如支付宝靠集五福出圈,微信普及了摇一摇和红包心智,所以我们也寄予了春晚很大期待。
春晚有两个冠名档,区别在于口播时间。那一年我们没拿到第一冠名位,但也能获得大量流量。于是我们想借这波春晚流量,把抖音的社交场景推出来。
赞助春晚必须要配红包活动,我们就设计了一个玩法,希望通过发红包,引导用户加好友、互动。
现在听起来挺扯的哈哈,发红包跟社交能有什么关系?但当时确实是这样的导量逻辑。
后来上线前两周,我们又临时把活动目标从「互动」改成「拉新」,因为大家激烈讨论后,发现前者的逻辑还是不太顺。
这件事也是个教训。当时战略太摇摆,最后互动和拉新两边都没做好。
曲凯:除了社交,还有别的核心决策吗?
于北川:剩下比较重要的,就是增长相关的了。
19 到 20 年,我们的重点是守住短视频第一的位置,并进一步拉开和快手的差距。那时做了几件关键的事。
第一,推出抖音极速版,对标快手极速版。这个产品从立项到上线只用了两周,然后迅速涨到了几千万 DAU。
第二,19 年底到 20 年初,火山更名为「抖音火山版」。
第三,也是最重要的一件,就是在 20 年春节,用整个集团的力量给抖音导量。
为什么会有这件事?
因为那年快手非常激进,独家拿下了春晚的两个冠名位,而且改成了单列,想趁机冲一波流量。
我们当时非常紧张,担心快手的 DAU 会暴涨,然后他们真能接住这波流量。
于是我们采取了两个对策。一是加大发红包力度,要在市场声量上压过快手。快手发 10 亿,我们就发 20 亿。二是动员抖音矩阵中的其余 6 个产品,全部给抖音这 1 个产品导流。
曲凯: 这就是打仗啊。
于北川: 对!真的是一场硬仗。好在我们打赢了,而且打得非常漂亮。
怎么打的呢?
春节红包的核心玩法是「集卡」,用户集齐几张卡,就能瓜分红包。
字节把每张卡都对应成一个产品,比如皮皮虾卡、头条卡、西瓜卡……最稀有的那张叫「抖音卡」,相当于支付宝的「敬业福」。
关键来了——想拿到抖音卡,无论你在哪个 App 参与活动,都得去抖音。只要用户在春晚当天打开抖音,就有很高概率拿到这张卡。
同时,那天晚上我们还发了全量 push,所有用户点开都会直接跳进抖音。
所以那一晚,整个字节几乎是倾尽全力在给抖音导流。
这是只有字节能做到的事。你很难在其他公司看到这样跨部门、跨产品的协同,而且调动资源的力度如此之大。
后来抖音也确实接住了这波流量。那天我们的 DAU 冲到了 4.7 亿的峰值,算下来 LTV 也是正的。
紧接着疫情来了,很多新用户也就留了下来。
那场春节战役,成了抖音开启疯涨模式的转折点。
有个细节我印象很深。在活动前一两周,一鸣跟我们开会的时候还问:「20 亿够吗?要不要花 100 个亿?」
这其实就特别能体现字节的风格:追求极致,甚至有点极端(笑)。
但也正是这种「从极致到极端」的思维,会逼着你去想:怎样才能真正打败对手?怎样才能实现 100% 的增长,而不只是优化一两个点?
曲凯:明白。所以如果时间倒流,那几年里有没有哪件事你会做得不一样?
于北川:我觉得我会更激进一点。那几年我们对抖音、对未来的认知都不够,所以做事还是偏保守。
这种保守也跟当时团队的工作方式有关。
很多人以为字节做事就是搞个差不多就上线、之后再疯狂 AB Test。
其实不是。
那时候抖音的做事方式非常严谨。我们有完整的评审机制,每个方案都要经过充分论证、说服关键人,才能推进。因为抖音已经是个很大的产品了,所以 AB Test 反而是在比较靠后的环节。
这种状态很好,让我们耐心地等来了抖音的高速增长。
但也因此,错过了一些机会。
曲凯:比如呢?如果更激进,你会做什么?
于北川:我会在 18 年更早、更激进地推直播。
当时最大的直播平台是快手,而抖音的直播流量很差。
我们当时的思路是开一个单独的直播入口,而不是直接在 feed 流里试。因为团队还很谨慎地控制着 feed 流里能分发什么内容。
结果后来事实证明,抖音的 feed 流可以分发一切,比如认识的人的卡片、电商广告,甚至附近的店。
所以如果当时能更早分发直播,抖音直播可能也会更早起来。
曲凯:那几年里你应该接触过很多字节的人,甚至上到一鸣。所以你对字节的组织和人的印象是什么样的?
于北川:字节有一个很与众不同的特征:你不知道谁是谁。
曲凯:怎么讲?
于北川:就是你看不到头衔,不知道谁是负责人、谁是 VP。系统里你可能只能看到对方在哪个部门、OKR 是什么、联系方式是什么。
字节尽可能弱化了层级关系。
我加入的时候,公司其实已经有好几万人了,但我依然能和高层直接交流、开会。除了我在一个比较重要的业务之外,更重要的是,字节愿意给大家这样一个扁平的环境。
我第一天入职,卷卷就跟我说:「在这里,你不需要把自己当成实习生或者校招生。」大家都是直接对接、直接讨论。
这种扁平,是字节早期核心团队刻意保留下来的文化风格。
它带来了什么?——「祛魅」。
你在新闻里看到一鸣、卷卷这些名字,会觉得离自己很远;但在公司里,你会觉得他们离你很近。
而在这种距离被拉近的过程中,你会自然地产生一种想法:「很多事情我也能做。」
于是你更不设边界,更敢承担,更敢成长,也更有野心。
所以为什么我前面说字节早期给年轻人的机会非常大?为什么那么多优秀的年轻人是从字节出来的?
正是因为这套组织文化。在这样的文化里,组织才会一直有活力。
这也是字节最核心的竞争力。其次才是它的理性、数据驱动这些。
曲凯:聊个不能播的(笑)。那为什么现在这么多人都想着从字节出来?到底什么变了?
于北川:也能播吧哈哈。
我觉得是因为组织被稀释了。
简单说,就是字节太大了。只靠校招生已经满足不了它的用人需求,所以只能招外部有经验的人。外部的人当然很多也很优秀,但他们带着自己的习惯,不一定会遵循字节原本的做事方式,也未必有人能提醒他们。久而久之,原有的组织文化内核就被稀释了。
这其实是所有公司在扩张过程中都会遇到的问题,而且不可逆。只是有的公司能把这个过程拖得更久。
所以现在大家说字节有大公司病,我觉得这是必然的。但相对来说,字节已经做得很好了。至少今天大家还会觉得它是一个有战斗力的公司,不会让人觉得没威胁。
曲凯:这个你谦虚了(笑),字节永远是最大的威胁。
于北川: 哈哈对。所以我们现在创业,也一直在想,团队变大之后,怎么保证做事风格不变。
曲凯: 我之前听过一句挺有道理的话:
所谓企业文化,就是你招的前几十个人什么样。
于北川:是。文化建设是创始人 day one 就要想清楚的。一鸣在这点上真的很强,他是真的把自己的行事准则,渗透进了整个组织。
曲凯:那你觉得你在字节那几年,最核心的收获是什么?
于北川:极致。
这是字节最突出的特征。一方面是行动上的极致,就是不顾一切去解决问题。另一方面是思考上的极致,也就是永远在想怎样最大化收益、怎样扩张业务。
这种思维方式,往往能带来真正的战略改变和创新。
曲凯:很多时候,大家会把字节对极致的追求理解成「大力出奇迹」。
于北川:我觉得不是。字节的极致,其实是战略思考上的极致。
举个例子:你想做一件事,可能同事告诉你可以做到涨 10%。
那你可以问:怎么涨两倍?
如果是一鸣,甚至可能会问:怎么涨五倍?
当一个人被这样问到,就会被逼着去思考真正「不破不立」的答案。
涨 10%,可能靠东拼西凑、加几个功能点就能实现;但如果要涨 200%,就得去想大的战略变化。
我觉得一鸣一直在做的,就是带着整个组织去这样思考。
所以为什么大家一听字节进入某个新领域都会害怕?
因为它的逻辑永远是「不破不立」。
曲凯: 格局打开了(笑)。
那讲讲你现在做的事吧。你从字节出来之后,怎么想到要自己创业?
于北川:简单说,就是经历了抖音那几年高速增长和辉煌之后,我被「惯坏」了,不太能接受去到其他增长更慢的环境里,尤其是可能还要面临各种汇报和不那么纯粹的事。然后机缘巧合之下,就开始创业了。
我们已经做了一年多,一直在迭代。现在有两个业务,一个业务还不错,有稳定收入;另一个就是最近大家可能刷到比较多的 Lessie AI。
Lessie AI 的定位是 People Search AI Agent,有点像一个帮你找人的小助理,或者说是 AI 时代帮你加好友的帮手。
大量找人的场景其实特别多,比如营销公司要找 KOL,工厂要找外贸客户,猎头要找候选人。过去大家会用一些 SaaS,先去搜联系方式,再手动筛选、校验,然后想办法建联。
Lessie AI 的价值,就是更快、更准、更省地,用 AI 帮你找到想找的人,并帮你完成初步建联。相比传统 SaaS,它能节省几十倍的时间,转化也更好,而且还能持续学习上下文。
曲凯:那你对比在大厂核心业务工作的感受,和出来创业,有什么不同?
于北川: 大厂会锻炼你分析和解决具体问题的能力,而创业更需要你做战略选择、配置资源。
这种差异,也是很多在大厂做业务的人出来创业后,最需要完成的认知转变。
创业有时候很容易「偷懒」。
什么意思?
你会假装自己很忙,比如疯狂写文档、测 bug,但其实这些事和你没关系。
你忙这些事,只是为了安抚焦虑,显得自己在努力。
但你真正该做的,是想清楚产品定义、找到最合适的 CTO、想好未来 6 个月钱怎么花之类的问题。
这些问题,大厂不会教你,只能靠自己重新学习和训练。
但因为这些问题都很难,所以很多人会选择性地回避。
曲凯:你讲的是大厂人创业时很普遍的状态。它不一定是主观选择,很多时候就是肌肉记忆。解决具体业务问题又开心又容易,还有成就感和正反馈。
于北川:对。人天然会选择更容易的事,这就是思维惰性。
但其实真理就是那句话:要做难而正确的事。
这些事一定很难,可能两天都想不出结果,但一旦解决,就能带来质的飞跃。
当然,创业也要找到平衡点。你既要有一线解决问题的能力,又要能想清楚战略和资源层面的事。
曲凯: 明白。最后,如果有一天字节也来做你们正在做的事,你会怎么办?
于北川: 关键是要想清楚:你创业,长期会留下什么?
是眼前的 ARR,还是你在这个圈子里积累的生态和用户数据?
如果这个问题都答不出来,那字节今天做、明年做、后年做,对你来说都没区别。
其次,要看时间窗口,也就是现在你有没有在正面和字节竞争?
如果它的注意力不在这,那就是你的窗口期。
接下来就要思考,怎么在窗口期里快速起量?而要快速起量,就要想清楚 day one 的切入点是什么、增长怎么做、怎么验证 PMF。
只要这些问题想清楚了,你在逻辑和原理上,就已经具备和字节一战的可能。
42章经
思考事物本质
2025-11-09 21:17:00
原创 Celia 2025-11-09 21:17 中国香港
关于 AI 泡沫、增长方法论、AI 产品定价、独角兽 Fal 的成功秘诀等
这是 Newsletter 的第二期,我们筛选了海外 200+ 篇文章和 100+ 期播客。
上期很多朋友反馈希望以邮件的形式订阅,所以我们给 AI Newsletter 的新专栏单独开了一个网站 (https://42chapter.substack.com/),感兴趣的朋友可以转战网页版阅读 。
目录
1. 1 年 1 亿美金 ARR,Fal 做对了什么?
2. 为什么说 AI 还没到泡沫?
3. 250 家公司的经验:AI 产品要如何定价?
4. 增长的幂律定律
他们做的是所谓 “AI 生成式媒体云”,简单说,就是为开发者提供各种图像、视频和音频模型的优化 API 服务,可以理解为 AI 模型的金牌中介+超级加速器。
这家公司有多猛呢?一年时间,ARR 从 200 万美金干到了 1 亿美金。而且,目前整个团队还不到 50 人。
于是,我最近连听了三期采访创始团队的播客,想知道他们是如何做到这一切的。
这里摘取一些重点:
1)关于战略选择
Fal 的起点和现在毫无关联。他们最早在做一个数据处理相关的产品,对标 Databricks 和 Snowflake。
转折点发生在 Stable Diffusion 出现的时候,在 GPU 危机最严重的时候,在 Hugging Face 上运行一个 Stable Diffusion 1.5 的 Demo,前面排了 3000 个人。这种极端的供需失衡,让他们意识到,眼前有一个明确的用户痛点,未来对 “推理优化” 的需求会暴增。
但老产品当时已经有了稳定的付费客户,所以他们在两条产品线上痛苦地并行了两三个月。
最后帮他们下定决心的是投资人的一个灵魂拷问:
“你觉得哪个点子能让你先到 100 万 ARR?哪个点子能让你先到 1000 万 ARR?”
当时他们觉得老产品到 100 万更快,但新方向到 1000 万更快,于是就此完成了这次关键的取舍。
决定转向 Inference 后,他们又面临第二个关键决策:做 LLM 还是做 Image/Video(生成式媒体)?
当时 LLM 显然是更热的赛道。但 Fal 做出了一个极度反共识的决策,做后者。
CEO 提到,当时去融资,VC 们都不信,觉得 “推理平台不都一样吗?”,而且还觉得图像市场太小。
但他们的判断是:LLM 和图像是两个完全不同的市场。两者的优化方式、技术取舍截然不同,买家也完全不一样。
而最核心的是:LLM inference 最大的 use case 是搜索,这是在跟 Google 抢地盘。Google 为了守住搜索业务,在必要时甚至会把 LLM 推理免费送给用户,这对创业公司来说是死路一条。
但图像和视频是净增市场,它不抢夺任何巨头的存量蛋糕。这个版图刚开始小,但增长飞快,是很完美的创业公司游戏,Fal 可以陪着行业一同野蛮生长。
此外,他们还发现,在大模型领域,技术的 SOTA 红利期短得可怜(SOTA = State of the Art,但在这里= Soon Obsolete Technology Also...),最多只能带来 3-4 个月的领先优势。
原因有三:
独家的研究成果总会泄露。
一旦某件事被证明可行(比如 Sora),其他人就很容易复制。
模型的 API 可以被蒸馏,对手能用更便宜的成本抄作业。
基于此,他们判断未来的模型会越来越多,越来越碎片化。现在,图像模型的竞争已进入 “差异化” 阶段,各家都在寻找自己的生态位(例如,Imagen 擅长角色一致性,Flux 强在工具生态)。
而市场越是碎片化,Fal 这样的聚合平台就越有价值。他们能把所有模型(目前超过 600 个)都接入并深度优化好,为开发者提供一个统一的入口。
这逐渐演变成一个强大的双边市场飞轮:
先用最快最全的模型 API 吸引开发者,再用海量开发者吸引更多模型入驻。
播客中一个有趣的细节是,这个双边市场模式不是他们一开始想到的,而是被一个爆款单品意外点燃的。当神秘的中国模型 Kling 刚出来时,Fal 率先将它引入了西方市场并提供 API,结果一夜爆火。这反过来让其他模型实验室意识到 Fal 是绝佳的分发渠道,于是纷纷主动寻求上架,整个生态被瞬间激活。
2)关于 GTM
在最早期,Fal 的客户全是独立开发者和爱好者,投资人担心他们做的东西看起来很像“玩具”。
但 Gorkem 对 “玩具” 有一个评判标准:看用户愿不愿意花钱。
“当用户一天能在你平台上花几万美金时,这绝对不是玩具。人们正在用它做严肃的产品。”
有了这些高潜客户,他们的 GTM 策略非常清晰,是一个 PLG + Sales 闭环:
第一步,自助服务:开发者用信用卡注册,直接开跑,按需付费。
第二步,筛选高潜客户:当系统监测到某个用户的日消费超过一个阈值(比如 300 美元/天),Salesforce 里会自动生成一个商机。
第三步,销售转化:销售马上跟进这个线索,联系对方,说服他们签一个年度合约,并给一个折扣。
这套打法让他们在早期就获得了持久的企业收入,回应了投资人对他们收入质量的质疑。
此外,Fal 的品牌营销也很有品位。他们深深理解:“传统的营销方式对开发者没用,他们觉得很尬”。
所以 Fal 的思路是做一个鲜活的 “自己人”。
举两个例子:
GPU Poor or GPU Rich:
他们做了两款标志性的帽子作为活动周边:一款是乡村俱乐部风的 GPU Rich,另一款是黑底白字的 GPU Poor。结果到了现场,“GPU Poor” 那一款简直被抢疯了,所有人都爱不释手。
公开直播部署:
一有新模型发布,他们的工程 VP 就会立马开直播,现场挑战极速部署,全程屏幕共享。这种对技术实力的展示,是开发者最认的品牌营销。
3)下一个大机会
播客的最后,主持人问了一个问题:你认为生态里还缺什么?有啥财富密码可以给想创业的朋友分享一下。
Fal 因为拥有 “上帝视角”,能看到所有开发者在构建什么,在头疼什么,所以他们给出了几个非常具体的方向:
1)针对图像和视频领域的 Scale AI:现在每个模型公司都在重复造轮子,自己去收集和标注数据 (比如各种视频特效、运镜角度)。这里有机会出现一个平台级的公司。
2)图像/视频的 RL:视频模型的 reward function 应该是什么? 这是一个值得探索的前沿方向。
3)更垂直的广告应用:现在大家都在做水平平台,但针对特定行业、特定广告网络的垂直解决方案还有大量空白。
(对以上方向感兴趣的朋友,欢迎找我们交流!)
Reference:
How Fal.ai is Making AI Video Faster & Easier | A16Z
A Technical History of Generative Media | Latent Space
How Fal found explosive growth in gen
erative media | In Depth
最近资本市场出现了一个有趣的大动作,Michael Burry 高调复出。
Michael Burry 这个名字,在金融圈外可能有些陌生。但如果提到电影《大空头》,很多人就有印象了。Burry 是这其中的主角原型,他在 2008 年金融危机前,精准预言并重仓做空了美国的房地产市场。
在投资界,他几乎等同于 “泡沫预言家”。
这周,他所在基金的 Q3 持仓文件显示,他进行了一次彻底的 “持仓换血”。其中接近 80% 的仓位,都用来买入了英伟达和 Palantir 的看跌期权,对应股票的名义价值超 10 亿美元。
这种决绝的手法,和他 2008 年的操作如出一辙。
于是,硅谷最近最热的话题就是:AI 现在到底是不是泡沫?
最新的调查结果是,到今年 10 月,已经有 54% 的基金管理人认为 AI 市场进入了泡沫阶段。
带着这个问题,我们也翻阅了大量资料。
过去三周,在所有关于泡沫的文章、播客、Twitter 讨论中,我们读到最扎实、最详尽的内容来自 Coatue。
他们回溯了 400 余年历史,阅读了 10 多本书,深入分析了 30 多个泡沫案例。
最后出乎意料地得出了一个乐观的结论:AI 目前还没有到泡沫阶段。
我们一起来看一下他们的拆解。
首先,我们要捋清一个概念,泡沫究竟是什么?
Coatue 给出的定义是:泡沫是资产价格远超内在价值的状态,通常由投机、宽松信贷或从众行为推动,破裂后往往引发严重后果。
而当前市场对 AI 的质疑,主要集中在几个点上:
质疑 1: 估值是不是太高了?
这是最直观的担忧,很多人认为现在科技股的估值倍数已经远超历史平均水平,证明市场很可能已经过热了。
但 Coatue 表示,从历史对比看,现在的估值虽然不便宜,但也绝对谈不上疯狂。
如果和 2000 年互联网泡沫的顶峰比,当时纳斯达克 100 指数的动态市盈率高达 89 倍,而现在仅为 28 倍,还远没到失控的程度。
质疑 2: 钱是不是太集中了?
2000 年泡沫高点,美国前 10 大公司市值占 GDP 比例是 34%,而到了 2025 年,这个比例达到了 77%。
但 Coatue 说,此集中度非彼集中度。
2000 年的巨头,业务相对单一。而今天的巨头,更像是集合了多个业务的八爪鱼。比如亚马逊,它同时布局了零售和云业务,这几乎是两个独立的产业。
所以,用 77% 对比 34% 并不公平,今天头部巨头的市值承载了更多领域的价值。
更重要的是,高集中度并非是负面信号。MIT 的一项研究指出,在集中度较高时,“买入并持有”这种策略的回报反而会好于频繁卖出。
质疑 3 : 天量的资本开支 (CapEx) 对劲吗?
还有人担心:资本开支过高,会不会拖垮企业的盈利数字?
从数据来看,S&P 500 公司的 CapEx 已经占到了美国 GDP 的 1.6%,这个比例已经超过了互联网泡沫时期的 1.4%,并且市场共识是它会进一步涨到 2.0%。
但 Coatue 认为,关键问题不是花了多少钱,而是钱从哪里来。
2000 年泡沫顶峰时,CapEx 占到了企业现金流的 75%;而当前,这个比例仅为 46%。
这一点和 2000 年有根本区别。它不是债务推动的狂欢,而是巨头的内部造血。
质疑 4:AI 是不是在玩障眼法式的融资循环?
这个是我最关心的:这个圈子是不是在 “左手倒右手”?
现在发生的事情似乎是,OpenAI 承诺向甲骨文下一个 300B 的大单,然后甲骨文股价大涨;甲骨文作为英伟达的大客户,向其采购 GPU;英伟达作为投资者,又把钱投给了 OpenAI;OpenAI 再用这笔融资款,去兑现给甲骨文的付款。
许多个这种嵌套式的资金闭环,让人不得不怀疑 AI 收入的含金量。
Coatue 对此的回应是,这并不新鲜。互联网时期,也存在大量的“易货收入” (barter revenue),企业通过资源互换而非实际现金交易来创造收入。 (但这个回应感觉有点避重就轻,我们不能抛开剂量谈毒性,关键是今天这种 “空转” 收入的占比是不是有点过大了?)
质疑 5: 企业采用率低,且无法盈利
看空者说,AI 的采用率正在放缓。MIT 调研显示 95% 的机构没在 AI 投资上获得回报。企业 AI 采用率(按员工数计)在最近三个月也开始不升反降,从 13% 回落到了 12%。而且,ChatGPT 都推出 3 年了,还没看到广泛盈利。
Coatue 的回应是: 请给基础设施一点时间,并看看 C 端用户的表现。
首先,ChatGPT 的 MAU 增长曲线,其普及速度远超互联网和 PC。这种爆发式的用户增长,恰恰说明了 AI 有多强的用户需求。
其次,盈利需要周期。以 Azure(微软云服务)为例,它花了 6 年时间才实现了正的 ROIC (资本回报率)。AI 的逻辑与云服务一致,需要时间沉淀。
延续前面对 AI 盈利能力的担忧,Coatue 还做了一个浩大的工程,他们拆分了各种指标,试图把 AI 的经济账真正算清楚。
他们把 AI 的回报分成了两部分:
直接效用:这部分很直观,比如 ChatGPT 的订阅收入,因为 AI 提效而减少的薪资成本等等。
间接效用:这部分就比较模糊。比如 Google 用 AI 优化广告投放,带来了更多收入,或者员工用了 AI 工具,生产力变高了。
这样算下来,AI 的盘子有多大呢?
他们最终建模得出的结论是,未来 5 到 10 年内,AI 的收入大概会增长 10 倍,相关利润可以达到 1 万亿美元。
目前,整个行业还在巨额投入期。
但转折点在 2030-2035 年,这时候年收入预计会飙升到 1.9 万亿美元,EBIT 转正到 8500 亿美元。
这样,ROIC 将从现在的 -3% 跃升到 +20%。
+20% 是什么概念?这已经接近 AWS、Azure 这些成熟云服务的盈利水平了。
这样来看,当下对 AI 领域的投资会是完全合理的。
但这是否意味着股市还有上涨空间呢?毕竟,市场已经连续涨了 3 年了,是不是该到头了?
我们可以进一步看两项很有意思的历史研究:
1)如果分析过往的标普 500 指数,我们会发现,在市场连续上涨 3 年后,第 4 年继续上涨的概率是 48%。虽然上涨动能确实放缓了,但基本还是一个五五开的局面。
2)如果我们复盘1990-2000 年纳斯达克 100 指数的回报,会得到一个 lesson:过早卖出的机会成本极高。
举个例子,如果你在 1999 年的市场高点买入了纳指,那么到 2003 年,你的平均年增长率为 -4%,但如果你能坚持拿到 2007 年,你的平均年增长率就会达到 +2%。
当大浪潮来临时,市场的上升周期往往比想象的更长。尤其在 AI 这种可能持续十年的技术浪潮里,耐心往往比时机更重要。
所以,未来究竟会怎样?
Coatue 内部的结论是:
大于 2/3 概率,市场欣欣向荣,科技板块继续领涨。
小于 1/3 概率,泡沫破裂,引发崩盘。
总的来说,Coatue 理性看多。
最后想补一句的是,AI 泡沫可能现在还没有到来,但它也终将会到来。
Sam Altman 也在最近的 BG2 播客上亲口承认,算力泡沫和过剩未来「肯定会发生」,这是人性。
现在科技巨头就像进入了一场不断加注的扑克游戏。
为了在市场站稳脚跟,他们必须不断加大投入,只要 AI 进步没有停止,巨头就会不断加码,但问题是,模型每升级一次,烧的钱都是 10 倍起跳,谁也不知道 GPT-7,GPT-8 的 ROI 是多少。
目前百亿级别的 Capex 即使踩空,市场也能承受;可一旦牌桌上的筹码堆到万亿、十万亿,而收入却没能跟上,那才是真正的清算时刻。
而在此之前,游戏还会继续。
Reference:
Coatue Public Market Updates
Michael Burry effect? | The Economic Times
目前 OpenAI 发展面临哪些问题? hrel 的知乎回答
最近看到的另一条好内容,来自 Lenny 和定价专家 Madhavan 的对谈。
Madhavan 曾经为超过 250 家公司和 30 家独角兽设计过定价策略,所以他在这期播客里系统地讲解了 AI 产品定价的正确打开方式。
信息密度很高!这里梳理一下。
首先,公司在不同阶段,定价的侧重点不同。
在公司早期,定价的首要原则是简单。简单到什么程度呢?你可以试着让客户复述一遍你的定价策略,如果他说不清楚,那就说明你的方案太复杂了。
另外,报价的时候最好能讲出一个漂亮的故事。比如 Superhuman 每月 30 美元,听起来很贵,但他们的说法是:“每天花 1 美元,每周帮你省下 4 小时。” 听起来就划算多了。
第二个阶段,等公司开始上规模后,谈判能力会变得更加重要(主要指 2B 领域)。
这里有几个重要的技巧,我觉得很有意思,在其它商业谈判场合也适用:
1) 有舍必有得
谈判时不能一味让步。你每给出一个折扣,就必须从对方那里要回点什么。
一个很好用的索求是要求对方出具一份 “价值审计报告”。你可以说:“折扣可以,但作为交换,我需要你们每半年内部出具一份报告,用你们的数据来量化我们产品带来的价值。”这份报告就是你后面续约和涨价的王牌,因为这是客户自己盖章认证的价值。
2) 让客户自己说服自己
很多创始人在谈判中只会单向输出,这是大忌。你必须在对话中不断设下圈套,让对方亲口承认你的价值 。多问一些类似 “你觉得这个功能在你们公司能怎么用?” 或 “这个仪表盘你最喜欢哪一点?” 的问题。当客户自己开始帮你吹嘘时,后续的商务谈判会顺畅得多。
同理,POC 结束时,千万别自己做好一个 ROI 模型去给客户汇报,没人会信你单方面的假设。正确的做法是,从第一天起就拉着客户一起确认模型里的每一个变量,当所有输入都得到他认可后,最终的结果他们就很难反驳了。
3) 永远带着选项去谈判
不要只提供一个产品和一个价格,这样对方的注意力只会集中在价格上。你应该提供 “好、更好、最好” 三个选项,比如 10 万、20 万和 30 万。这会把对话从 “价格” 引向“价值”,客户会开始讨论 “我喜欢 20 万方案里的某个功能,但预算只有 10 万”,这时你就可以顺势把话题带回价值探讨。
4) 让步的幅度要递减:
最糟糕的谈判方式,是先给 5% 折扣,不行再多给 5%,再不行再给 5%,这等于在告诉对方 “我这还有的是空间,继续压价”。高明的谈判者恰恰相反,先给一个大的折扣,比如 10%,不行再让 5%,再不行再让 2%。这种递减的方式,会给对方一个强烈的心理暗示:这已经是我的底线了。
接着,Madhavan 介绍了 AI 产品定价的标准流程:
先通过 POC(Proof of Concept,概念验证)和客户一起算出 ROI,然后尽量找到能按效果付费的定价策略。
这引出了 AI 创始人最常问的两个问题:
1)POC 怎么做? 2)价格到底怎么定?
我们先来看 POC。
很多创始人会把 POC 当成一个技术测试,看产品在客户那儿跑不跑得通。
但这就抓错了重点。Madhavan 说,POC 的唯一目标,就是和客户一起共创一个商业案例,用实打实的数字证明你的产品到底能为他创造多少价值。
随后 Madhavan 没有细讲 POC 要怎么做,而是回答了一个创始人经常有的问题,就是 POC 到底该不该收费?他认为要收。收费能区分那些只是随便看看的人和认真购买的人,避免浪费时间。
但收钱也有讲究:
1) 你要非常明确地告诉客户,POC 这一个月的费用(比如 1 万美元)只是为了共建商业案例,和未来正式的商业合同完全是两码事。否则,客户会想当然地认为一年的合同价就是 12 万,你就给自己挖了个大坑。
2) 如果客户在 POC 之前就想探探底,问最终价格大概是多少,这时候不要直接给一个具体的数字,你可以换一种说法:“根据我的经验,我们至少能帮你创造 1000 万美元的价值,然后我们大概就收这其中的 1/10。”
如果客户一定要给一个具体数字,那就给一个宽泛的区间,比如“最终价格会在 70 万到 130 万美元之间,具体取决于我们最终能给你创造的商业价值。”
等 POC 做完,价值也验证了,就到了正式定价的环节。
这里 Madhavan 提了一个简洁的分析框架,主要就看两个维度:价值的归因难度和 AI 的自主性 (后者指的是多大程度上 AI 能自己把活干了)。
左上角(难归因 & 高自主):比如一些后端或基础设施类的 AI,可以按实际用量计费,用多少算多少。
左下角(难归因 & 低自主):传统的 SaaS 工具大多落在这个区间,只能按席位订阅,赚个辛苦钱。
右下角(易归因 & 低自主):像 AI Copilot 这类产品,价值很明确,就是提升效率。适合“订阅+用量”的模式。
右上角(易归因 & 高自主):像 AI Agent 这种能直接出结果的,可以按效果付费,这是定价权的顶层。
除此之外,Madhavan 还提醒了几个创始人经常踩的坑:
1) 产品里 20% 的功能,往往决定了 80% 的用户付费意愿。但讽刺的是,这 20% 的功能常常是最好做的,所以很多创始人随手就把它做出来免费送了,后面的高级版只能用大量零零碎碎的低价值功能硬撑,用户自然不买账。
2) 定价要频繁迭代:传统 SaaS 两年改一次价,AI 至少要一年甚至半年就重新评估,因为市场和技术变化太快。
3) 降低 churn rate 的第一要义是找出最稳定、最长久的客户画像,把获客预算砸在这群人身上。但很多公司会反过来,花太多力气去思考哪些客户可能流失,我要怎么留住他,后者通常得不偿失。
最后还想再补充一点,我们和市场上好几个创始人、增长负责人交流后的 learning 是,现在绝大多数 AI 产品都定价过于保守了,大家都有非常大的涨价空间,应该大胆测测试试。
巴菲特说过的一句话送给大家:“评估一家公司,最重要的就是定价权。如果涨价 10% 得让你在内心祈祷,那你做的肯定是一门糟糕的生意。”
Reference:
Pricing your AI product: Lessons from 400+ companies and 50 unicorns | Lenny's Podcast
她大概是近十年最顶尖的增长操盘手之一,在 Meta、Pinterest、Descript 都带过增长团队,把产品做到过 2 亿用户。
这期内容也确实精彩。就像主持人说的,这是他近年来做过 “最细致 (most granular)” 的一期节目。
摘录一下对我们最有启发的几个要点:
1) 为什么“数据驱动”会杀死增长?
Sandy 提出一个观点:要让团队保持 Data-inspired(数据启发),而不是 Data-driven(数据驱动)。
增长团队容易掉入一个陷阱:看到数据漏斗里有个值不好看,就觉得 “这比竞品基准差太多,我们必须把它提上来”。
她分享了一个惨痛教训。早期 Descript(一个音视频剪辑工具)只有桌面版,增长团队发现,从 “注册” 到 “下载” 这一步流失率巨大。
于是她想,桌面版摩擦力太大了,我们应该推出一个无摩擦的 Web 版,这样转化率一定会暴涨。
团队花了两年时间开发了 Web 版,结果呢?
转化率、激活率、收入全面暴跌。
她复盘时才想通:摩擦力是一种筛选器,一个人愿意花时间去安装应用,证明他的使用意愿非常高,而且他已经投入了沉没成本,所以更愿意花时间深入探索产品。而 Web 版吸引来的,全是大量随便看看的观光用户。
所以她总结出了一个重要认知:
增长假设 = 数据洞察 + 背景解读。
一定不能只有前者,而没有后者,不然推导出的决策很可能就是错的。
2) 增长的幂律分布定律(Power Law of Distribution)
Sandy 认为,创业公司做增长,常踩的一个坑是广撒网,在资源极其有限的情况下,如果一上来就同时测试十几个渠道,最终的结果往往是广种薄收。
她发现,真正高速增长的公司,往往都符合“增长的幂律分布”:公司 80% 的增长,是由 1-2 个核心渠道驱动的。
所以最重要的是找到你的 “不公平优势”(Unfair Advantages)。比如,Descript 的一个 “不公平优势” 是:
对于一个服务于创作者的产品,用户天然会基于它来创作内容。
她当时给 Descript 做增长的时候,意外发现,很多早期用户会自发在 YouTube 上做 Descript 的评测和教程视频。
她灵光一闪,做了两个实验:
实验 1:主动联系这些博主,请他们加上产品链接。结果:流量增加了。
实验 2:推出联盟计划(Affiliate Program)。你推荐来的付费用户,我们给你 15% 的永久佣金。
结果是,ROAS (广告回报率) 高到不可思议。这个渠道在当年贡献了 25% 的新用户,而且几乎是全自动的。
(所以做个总结:“不公平优势” 往往藏在产品和用户的自然交互中。增长团队的核心能力是发现这种杠杆,并系统地撬动它。)
3) 一个巧妙的搭配:水平定位 + 垂直获客。
传统建议是定位要窄,但 Sandy 认为,Prosumer 产品可以在功能和定位上做得 “大而全”,但是用 “垂直入口” 来切入获客。
Descript 的品牌定位是 “一体化音视频编辑器”,这是宽泛的。但它的获客入口非常垂直,具体分为两类:
按场景划分: 针对一个相对完整的使用场景。比如,“播客剪辑工具”、“视频会议转录”。
按具体任务划分: 针对一个具体的痛点或问题。比如,“如何给音频去噪”。
用户通过一个非常具体的需求点进落地页,但数据发现,超过一半的用户,第二个动作是点击 Logo 返回首页,他们想看看“这个能解决我小问题的工具,到底是个什么东西”。 结果,那个“大而全”的首页,反而比最开始的垂直页面转化率更高。
(插一句,针对这一点,Monica 当时一定程度上也是这样做的,而且它还有助于挖掘细分的价值场景,做精细化的运营和商业化测试。
作为一个 all in one 的浏览器插件,Monica 集成了多种功能:总结网页、总结 YouTube 视频、编辑图像、Chat with PDF... 他们会把每一个功能单独拎出来,做成一个独立的 web 页面,拿这个页面去测试这个单一功能场景下的商业化前景,以及最合适的定价方案。
针对不同的流量来源,他们也会设计不同的产品界面承接,比如区分广告来的用户和非广告来的用户,在广告来的用户身上,做更激进的商业化测试,弹出更多的 push 来刺激对方付费,但对自然增长来的用户不做这个动作。这样可以很好地平衡核心用户的体验和商业化目标。)
4) 创业公司该什么时候招第一个增长负责人?
传统建议是:等有了 PMF 再招。但 Sandy 有一个不同看法:最好尽早。
她不认为存在一个 “招增长太早了” 的阶段。增长就应该在最早期介入,把增长能力构建到产品里,这样可以解决很多早期找 PMF 和 PCF (Product Channel Fit) 的问题。
而且,在 YC 最新几期项目中已经明显有了这个趋势,很多团队还不到 5-10 人,就已经在招增长负责人了,“极早期招增长” 只会变得越来越普遍。
至于这个人该是 “经验丰富的老炮”,还是 “饥渴的年轻人”? Sandy 说:都行。
她唯一看重的特质是,必须有 “无法抑制的、保持 Hands-on 的渴望”。
增长是一个高度依赖体感的学科,而不是纯粹的战略管理。
尤其是 AI 时代,玩法每天都在变,老手的经验如果不能结合一线实操,很快就会过时,甚至成为决策的阻碍。
Reference:
20Growth: How to Build a Paid Marketing Machine | 20VC
更多阅读:
Figma 如何战胜 Adobe 等六篇 | 42章经 AI Newsletter