2026-02-02 12:58:23

本期 Indigo Talk 邀请了十几年的老友田鸿飞,他曾是比特币的早期玩家,现在是边缘 AI 的创业者。我们聊到了一台跑图速度是 Mac Studio 7 倍的家用算力盒子 Olares;为什么苹果隐私做得最好却最赚钱;以及 DeepMind 那篇被忽视的论文 —— 超级智能可能从分布式协作中涌现;
录制这期节目的时候 ClawdBot(OpenClaw)还没有火爆,但对谈已经涉及到个人计算的本质:数据应该在哪里处理?隐私与便利真的是一对矛盾吗?当所有人都在追逐单一的超级智能时,分布式智能体的协作会不会是另一条通向 AGI 的路径?在 AI 时代,什么才是真正属于我们自己的?
也许当所有人仰望云端时,真正的革命可能正在你家桌上发生。
Apple Podcast & Spotify 播客 | 小宇宙播客
田鸿飞(Olares 联合创始人 / 远望资本合伙人)
Indigo(数字镜像博主 / 独立投资人)
这是一期关于边缘智能(Edge AI)的深度对谈。嘉宾田鸿飞,Olares 的联合创始人,也是远望资本的创始合伙人。鸿飞与主持人 Indigo 在微博创立期就相识,一个是微博的早期团队成员,另一个正在微博生态中创业,为企业提供营销数据服务。没有人会想到,十多年后,他们会坐在一起,讨论一个听起来像科幻小说的话题:如果每个人都拥有一台 AI 计算中心,超级智能会不会从这些分布式的"小智能"中涌现出来?
录制这期节目的时候 ClawdBot(OpenClaw)还没有火爆,但对谈已经涉及到个人计算的本质问题:数据应该在哪里处理?隐私与便利真的是一对矛盾吗?当所有人都在追逐单一的超级智能时,分布式智能体的协作会不会是另一条通向 AGI 的路径?而最终,在 AI 时代,什么才是真正属于我们自己的?
"我们认识十五六年了,一块穿越了好多时代。" Indigo 回忆道。
那是 2009 年前后,中国互联网正在经历移动互联网的黎明。微博刚刚诞生,正以惊人的速度改变着中国的社交媒体格局。田鸿飞当时的创业项目是在微博上帮企业做营销数据服务 —— 这在今天看来是个再普通不过的 SaaS 业务,但在那个年代,它代表着对新兴平台生态的敏锐嗅觉。
但如果你以为田鸿飞只是一个追逐风口的创业者,那就大错特错了。
2009 年来北京创业之前,田鸿飞在 Oracle 做安全工程师,专门负责加密和公钥基础设施(PKI)的包管理。这个看似枯燥的工作,却为他日后的人生埋下了重要的伏笔。
"当我读到比特币论文的时候,就有种很熟悉的感觉。" 田鸿飞回忆道。那是比特币诞生不久的年代,绝大多数人对这份白皮书背后的密码学原理一无所知,但对于一个长期处理公钥加密的安全工程师来说,中本聪的设计简直是一场密码学的优雅演出。
于是,在微博创业之后,田鸿飞做出了一个在当时看来颇为"离经叛道"的选择:去新疆做比特币服务公司。
"巨早,对,大佬。" Indigo 听到这里忍不住调侃。
这个选择透露出田鸿飞身上一个核心特质:他天生对去中心化的东西有种本能的亲近感。从 20 多年前在学校研究网格计算,到后来做微博第三方应用,再到比特币,他的技术轨迹一直围绕着一个核心主题:分布式、去中心化。
"天生比较反骨吧。" 田鸿飞自嘲道,但这份"反骨",恰恰是理解 Olares 这款产品的关键钥匙。
2015-16 年,田鸿飞转型做投资,投了很多机器人公司。而 Olares的 故事,要从创新工场说起。
Olares 的 CTO 叫彭鹏,是田鸿飞在创新工场的同事。创新工场最早做的项目之一是点心操作系统,后来团队孵化出了涂鸦移动。操作系统,这个词在彭鹏的技术基因里刻得很深。
"我们想做一个边缘智能的、面向 Agent 的操作系统,这是我们可以往回溯到十多年前的初心。" 田鸿飞说。
这个初心有一个具体的历史参照物:Android G1。
"年纪比较大的人都知道,Google 的第一个手机是 G1 HTC。我们现在做的 Olares One,就是一个类似于 Android G1 的、我们第一代 Agent OS 的软硬件结合产品。"
这个类比非常精准。Android G1 在 2008 年发布时,没有人能预见到 Android 日后会统治全球 85% 以上的智能手机市场。它是一个开端,一个可能性的证明,一个"操作系统可以是这样的"的宣言。
Olares 想做的,正是AI时代的"G1"。
在访谈中,主持人把 Olares One 拿到镜头前展示。这是一台和 Mac Studio 差不多大小的银色设备,外观简洁,接口极少 —— 只有一个 Thunderbolt 3、一个 HDMI、一个USB-A 和一个网线接口。
"接口非常少,是因为我们是一个云访问的设备。用户通过浏览器来访问它,不需要插上键盘和屏幕。" 田鸿飞解释道。
这意味着你可以把 Olares One 放在家里的任何角落 —— 书房的柜子里、路由器旁边、甚至藏在沙发后面——只要它连着网络和电源,你就可以在世界任何地方通过浏览器访问你自己的"私人云"。
打开这台设备的规格表,你会发现一些让硬件爱好者眼前一亮的数字:
"我周围好多朋友买 5090 的卡在家里跑生图。" Indigo 说。这正是 Olares 瞄准的市场需求:越来越多的专业用户需要在本地运行大模型,而不是依赖云端服务。
96GB 显存是什么概念?如果你用过本地大模型,你会知道显存是最稀缺的资源。一个满血版的 DeepSeek R1(671B 参数)在4bit量化后大约需要 100-150GB 显存,而一般的消费级显卡只有 12-24GB 显存。96GB 的显存意味着你可以在本地运行绝大多数开源大模型的中型版本,而不需要做太多妥协。

谈到竞品对比,田鸿飞显得相当自信。
"我们跟 Mac Studio Ultra M3 对比过,在运行C omfyUI(一款流行的 AI 图像生成工具)这个生图环节上,我们大概是 Mac Studio 的7倍速度。"
7 倍,这不是一个小数字。
Mac Studio Ultra M3 的售价是 5288 美元,而 Olares One 售价约3000美元。换句话说,Olares 在生图这个场景上,用 60% 的价格实现了 7 倍的性能。
这个性能差异的来源是 GPU 架构的根本不同。Mac Studio 使用的是苹果自研的M系列芯片,采用统一内存架构(UMA),CPU 和 GPU 共享同一块内存池。这种设计在通用计算和能效方面有优势,但在AI推理这种高度依赖 GPU 并行计算的场景下,NVIDIA的 CUDA 架构仍然是王者。
当然,这并不意味着 Mac Studio 是一款失败的产品。苹果的统一内存架构有一个巨大的优势:你可以在一台 Mac Studio 上运行参数量巨大的模型,因为内存容量可以做得很大(最高达192 GB)。但如果你的主要用途是生图、视频生成或其他高度依赖 GPU加速的 AI 任务,Olares 可能是更划算的选择。
"苹果是闭源,我们是开源。"田鸿飞反复强调这一点。
Olares 操作系统是开源的。这意味着:
"有的比较极客的用户,可能会去 AWS 上搞一个 VPS 给装上去,其实也是 OK 的。"田鸿飞说。当然,这样做就牺牲了隐私优势——毕竟你的数据都在 AWS 上了。
开源还有一个更深远的意义:它是构建信任的基础。在一个 AI 模型可能记录你所有对话、分析你所有文件的时代,"开源"不仅是一种技术选择,更是一种价值主张:我们对你的数据没有任何想法,你可以自己验证。
"我们最近刚刚完成 Kickstarter 的众筹,前天才结束。大概卖了不到 250 万美金。"
这个数字远超团队预期。他们原本的目标是卖出 400 多台,结果实际卖出了约 800台。"其实我们远超过我们自己的计划,我对我们还是挺出乎意料的。" 田鸿飞说。
这个众筹结果释放出一个重要信号:边缘 AI 硬件的市场需求是真实存在的,而且可能比大多数人想象的要大得多。在 CES 展会上,Olares 展位的访客聚焦于两个话题:隐私和数据主权。
"本来我以为这是个蛮小众的群体," 田鸿飞坦言,"但超乎我意料之外。"
访谈中,Indigo 直接演示了 Olares 的使用体验。
首先,你需要给你的 Olares 分配一个域名。Indigo 的设备被命名为"REWIRED"——这是他家的名字。通过这个域名,你可以在任何地方、用任何设备的浏览器访问你的 Olares。
打开浏览器,输入域名,回车。一个看起来很像 Mac OS 的桌面出现在屏幕上。
"有点像 Mac OS 一样,但是它是 Web 打出来的,你可以远程访问。" Indigo 描述道。这个界面上有文件夹、应用图标、还有一个类似 Mac Dock 的任务栏。你可以挂载外部存储(比如已有的 NAS),可以安装各种应用,可以运行 AI 模型。
Olares 有一个类似 App Store 的应用市场。打开"AI"分类,你会看到一系列已经针对Olares 优化适配的开源大模型:
"本地能跑的模型上面都能跑。" 田鸿飞说。
除了AI模型,应用市场还提供各种生产力工具:
"我们最重要就是玩 Steam,我们玩黑悟空很流畅的。" 田鸿飞笑道。
这不是玩笑。因为 Olares 内置了高性能 GPU,它完全可以作为一台游戏服务器使用。你在家里放一台 Olares,然后在办公室、咖啡馆、甚至手机上通过 Steam Remote Play 来玩 3A 大作——所有渲染都在你家里的那台盒子上完成,你的设备只需要播放视频流和传输输入信号。
"这是可以装在虚拟机里面跑 Windows,对不对?"I ndigo 问。
"虚拟机是可以的。" 田鸿飞确认。
这意味着 Olares 的使用场景几乎是无限的。它可以是:
"就是一台PC,懂了。" Indigo 总结道。
但它又不仅仅是一台 PC。它是一台你可以远程访问的、为 AI 优化的、开源的、保护你隐私的 PC。这些定语的叠加,创造出了一个全新的产品品类。
Kickstarter 众筹的结果给 Olares 团队提供了真实的用户数据。"我可以给你分享一下已经发生的事情,"田鸿飞说,"我们现在发现有三类用户。"
"第一类用户就是设计师。"设计师是AI图像生成技术的重度用户。无论是 Stable Diffusion、Midjourney 还是 ComfyUI,他们每天都要生成大量图像来做概念设计、素材制作、创意探索。
云端服务的问题在于:
"那就取决于你的工作量多大,对吧?你要买多少 Credit,你愿不愿意在那排队等,你这个一个 G 的图片上去,再等个几个 G 的图片下来,这个速度愿不愿意去等。" 田鸿飞分析道。
而有了本地设备,设计师的工作流程变成了:点击生成,几秒钟后出图,不满意就调参数再来,无限循环,不用担心任何外部限制。
这是一个"一次性买断 vs 按量付费"的经典商业模式对决。如果你是重度用户,买断几乎总是更划算的。
"还有一类用户就是硅谷大量存在这种 AI 工程师,他们每个人都要买一个高性能的机器,回家玩大模型的。"
这类用户的需求和设计师不同。他们不一定是为了"生产"什么,更多是为了"学习"和"实验"。
对于 AI 工程师来说,一台高性能的本地设备是必备工具。它不是用来替代云端 GPU 集群的——那些训练大模型的任务确实需要数据中心级别的算力——但对于日常开发、调试、小规模实验来说,本地设备的响应速度和便利性是无可替代的。
这是最出人意料的用户群体。
"可能我们一般没想到的,就是一般的小企业主。" 田鸿飞说。
他算了一笔账:
更关键的是数据碎片化问题。如果你用 20 个SaaS产品,你的数据就分散在 20 个公司的服务器上。想做一个跨数据源的分析?想让AI帮你整合所有业务数据?几乎不可能。
"用我们的一个东西,一个产品,它可以装 20 个对应的开源软件在我们这个设备上,然后它所有企业的数据在一个地方。" 田鸿飞说。
这正是最近硅谷热议的话题:用 AI 来解决 SaaS 的问题。SaaS 的问题不仅是成本,更是数据孤岛。而边缘设备提供了一种可能性:把所有数据收归一处,然后用AI来统一处理。

在讨论隐私保护时,田鸿飞多次提到苹果。
"苹果的隐私是所有公司里边做得最好的,但是它又是一个最赚钱的公司。"
这句话点破了一个常见的误解:很多人认为,要保护用户隐私,就必须牺牲商业利益;或者反过来,要赚钱就必须出卖用户数据。
苹果证明了这是错误的二分法。
苹果的商业模式是卖硬件。你买了 iPhone、Mac、iPad,苹果就赚到钱了。它不需要你的数据来投放广告,不需要分析你的行为来推荐商品,不需要挖掘你的隐私来变现。
"所有人都选什么公司最安全,那一定是苹果最安全。因为它的商业模式就证明了它是保护你的隐私。因为它是卖设备给你赚钱的,你的设备越安全,你就越信赖它。"田鸿飞说。
这个逻辑链条非常清晰:商业模式决定了公司对待用户数据的态度。
作为对比,田鸿飞提到了另一类公司:社交网络。
"你不像 Facebook,对,或者说中国叫字节或头条,或者说是腾讯,因为他都是在云端的东西来赚钱。特别是头条,你的所有的隐私的行为数据,都是它的商业筹码。"
社交网络的商业模式建立在两个支柱上:
这意味着社交网络有内在的激励去做两件事:让你上瘾,以及收集你的一切数据。
"他不光是侵犯你的隐私,他还侵犯你的思维。" Indigo 补充道。这指的是算法推荐对人类认知的影响——信息茧房、情绪极化、注意力碎片化。
在 隐私光谱上,Google 处于一个有趣的中间位置。
"这 Google 也是侵犯,因为你所有的数据,Google 都要拿去确定它的广告系统。" Indigo 说。
但相比社交网络,Google 有一个关键的区别:它不做那种"消耗时间"的社交信息流。Google搜索是一个工具——你用完就走。它会收集你的搜索记录来优化广告,但它不会用算法把你困在无限滚动的 feed 里。
"如果排行来看呢,肯定是苹果最安全,然后其次是 Google,然后才是 Meta。" 田鸿飞总结道。
理解了这个商业模式的框架,你就能理解为什么边缘计算会成为一种价值主张。
Olares 卖的是硬件。它的商业模式和苹果一样:你买了设备,它就赚到钱了。它没有任何动机去收集你的数据,因为那对它的商业模式没有任何帮助。
更进一步,Olares 是开源的。这意味着即使你不信任团队,你也可以自己审查代码。它的隐私承诺不是一句口号,而是可以验证的技术事实。
"好的隐私保护并不会损害用户的使用体验,"田鸿飞说,"不是说你要为了隐私就要做很多事情,搞得很不好用。"
苹果已经证明了这一点,而 Olares 想在边缘 AI 的领域证明同样的事情。

当所有人都在追逐 AGI 和超级智能时,田鸿飞提出了一个不同的问题:
"我其实不想做那么聪明的一个大模型,我只想做一个最接近于每个人的模型。"
他把这称为"数字孪生"(Digital Twin)。
"我不想这个模型比我聪明,但是它更像、最接近于我。我说话可能喜欢说'对啊对啊',它就应该说'对啊对啊'。"
这是一个被忽视的需求维度。当我们评价 AI 模型时,我们通常关注的是它有多"聪明"——能解多难的数学题,能写多复杂的代码,能通过多少 benchmark 测试。但"聪明"只是一个维度。
田鸿飞给了一个具体的例子:
"当我工作中去给客户写邮件的时候,我希望写一个非常正式的、非常漂亮的邮件,这时候我就用 OpenAI 来帮我写。但是我可能要跟你写邮件的时候,我希望这个大模型模拟我的语气,模拟一个朋友的话来给你写邮件,我就希望一个大模型更像我。"
不同的场景需要不同的"人格"。工作场合需要专业、正式、精确;朋友之间需要随意、亲切、带点个人风格。一个通用的超级智能可以做前者,但后者需要对"你"有深刻的理解。
要创建一个"像我"的AI,第一步是收集数据。
田鸿飞提到他佩戴的 Limitless 设备——一个小小的胸针,可以 24 小时采集他的声音对话。
"然后如果我有一个这个,我再把 Gmail、再把所有我个人的数据都收集在一起,包括其实我 20 多年前的 Hotmail、还有读书时学校的邮箱邮件,我都其实都有保留。"
他想把这些数据——二十多年的邮件、数不清的对话录音、各种社交平台的发言——全部收集到一个地方,然后用AI来学习"他是什么样的人"。
"这个 Agent 可以来代替我在数字社会中做一些事情。" 田鸿飞说。
这个想法引起了意想不到的共鸣。
"前两个星期从 CES 回家的时候,旁边坐了一个波士顿动力的工程师。然后我在说起这个想法的时候,他就说你这想法太好了。"
那个工程师分享了一个个人故事:他的老母亲现在整天对着 Siri 聊天。他想,如果有一个设备,能把她的聊天都记下来,那会是对她一生记忆的一个回忆。
田鸿飞有类似的感触:
"我的老父亲,其实他一生有很多故事。然后我小的时候他在忙,他没时间跟我讲;等他老了退休了想跟别人讲的时候,我其实在家里待的时间很少,他也没时间给我讲。那现在其实我想再有很多故事、想跟他问他以前故事的时候,现在已经不可能了。"
这触及了 AI 的一个深刻的人文意义:它可以帮我们保存那些本会随着时间流逝的记忆。一个人的声音、语调、用词习惯、思考方式——这些本来只存在于亲友的记忆中,会随着记忆的模糊和人的离世而永远消失。但如果有一个AI,在足够长的时间里听过这个人的话、读过这个人的文字,它或许可以成为一种"不完美的永生"。
Indigo 提到了英剧《黑镜》中的一集:
"有一集就讲这个了,你挂个东西把你去世的人的所有东西都收集下来,然后存在里面,有个公司然后把它给复原回来。"
这个剧情在几年前还像是纯粹的科幻,但今天,它的技术基础已经在慢慢成形。
语音合成可以复刻一个人的声音,大语言模型可以模仿一个人的说话风格,多模态AI可以生成一个人的影像。如果有足够多的数据,"数字复原一个人"不再是不可能的事情。
当然,这也带来了深刻的伦理问题:这样做是对逝者的尊重,还是对死亡的否认?"复原"出来的数字人是"他们",还是只是一个模仿品?我们应该用AI来缓解失去亲人的痛苦,还是应该学会接受失去?
这些问题没有标准答案,但技术已经在前进了。
对话进行到这里,田鸿飞抛出了一个更宏大的话题。
"DeepMind 刚刚在 2025 年 12 月发布了一篇论文《Distributional AGI Safety》,就是说当所有人都集中在做超级智能、做单一超级智能体的时候,其实还有一种可能性:超级智能来自于多个没那么智能的智能体的协作涌现出来。"
这是一个根本性的视角转换。
当我们谈论 AGI 时,我们通常想象的是一个单一的、无所不能的系统——像《2001 太空漫游》里的 HAL 9000,或者《复仇者联盟》里的 Ultron。一个中央化的、全知全能的超级智能。
但如果超级智能不是这样产生的呢?如果它是从大量"没那么聪明"的小智能体的协作中涌现出来的呢?

这个思路有一个强大的生物学类比:大脑。
人类大脑由大约 860 亿个神经元组成。单个神经元是非常"笨"的——它只能做简单的加权求和和激活。但当 860 亿个神经元通过复杂的网络连接在一起时,意识、智能、创造力涌现了。
没有哪个神经元是"聪明"的,但整个系统是聪明的。
更宏观一点看,人类社会本身也是这个原理的体现。单个人类的智力是有限的,但当数十亿人类通过语言、文字、互联网连接在一起,通过市场经济进行协作时,人类作为一个整体展现出了惊人的集体智能——我们建造了城市、发明了互联网、登上了月球。
"人其实更多的时候,是人和人之间进行交互,然后共同通过市场经济来达到一个共同的目的。"田鸿飞说。
田鸿飞提到了特斯拉的例子:
"特斯拉在做 100 万个 Human Simulator 来计算,他们一个观点其实很有意思:就是说相对于大家都在做大模型、参数越多越好的时候,他们在做一个小模型。他们的关键是——小模型可以 Iteration 更快,然后我也可以通过小模型之间的协作产生更多的智能。"
这是一个务实的工程选择。特斯拉的自动驾驶必须在车载芯片上实时运行,它不可能依赖云端——网络延迟会让你的车在做出反应之前就撞上障碍物。所以特斯拉被迫走小模型路线。
但这个"被迫"的选择反而可能指向一条不同的道路。
"这个是第一次听说到还有一个这么大的特斯拉在做这个方向,我觉得都是一个很有意义的探索。"主持人说。
讨论到这里,田鸿飞提到了一个业界共识:
"大家现在已经有共识了,就是说现在大模型训练的数据已经把世界上可能用到的数据已经都用完了,他们说叫碰到了数据的墙。然后98%的数据都是在私有的,是没办法被大模型采用的。"

公开互联网上的数据——维基百科、Reddit、GitHub、新闻网站——已经被各大AI公司爬了个遍。但这些只占全球数据的 2%。剩下的 98% 在哪里?
"这里面有相当大一部分数据是在企业的数据库里边," 田鸿飞说,引用了 Oracle 创始人 Larry Ellison 的观点," 他会都在 Oracle 数据库里边,然后是需要得到授权使用的。这是Oracle他们的一个战略,是如何帮企业更好运用数据来训练超级智能。"
还有一部分是个人数据:聊天记录、邮件、照片、语音备忘录、行程记录……这些数据极其分散,格式各异,散落在 Facebook、微信、Gmail、iCloud 的各个角落。
"如果我们大家就用 Olares 的话,我们可以用 Olares 作为一个个人数据的一个集中点。" 田鸿飞说。
这就回到了他们产品的核心价值主张:边缘设备可以成为个人数据的汇聚点,而这些数据可能是训练"真正像你"的AI的关键素材。
田鸿飞抛出了一个惊人的论断:分布式智能体的协作网络已经存在了。
"其实我们最先一个由 Agent 自组织的这样一个交易网络,其实已经有了,已经存在了。我们的交易市场就是 Trading。"
Indigo 秒懂:"现在股票市场的 60% 交易量来自于高频交易,对吧?量化交易。"
这是一个被忽视的事实。当我们想象"AI 协作网络"时,我们可能想的是某种科幻式的未来场景。但实际上,全球金融市场已经是一个由算法主导的协作(或对抗)网络。
在纳斯达克、纽交所这些交易所,每天有数十亿次的交易发生,其中大多数是由算法自动执行的。这些算法——你可以叫它们"交易 Agent" —— 24 小时不间断地监控市场、分析数据、做出买卖决策。
它们之间没有"合作"的意图,每个 Agent 都只是试图为它的主人赚钱。但当成千上万个Agent 在同一个市场中交互时,一种复杂的集体行为涌现了:价格发现、流动性提供、风险定价……这些都不是任何单一 Agent "设计"出来的,而是从它们的集体交互中涌现出来的。
田鸿飞提到了一个有趣的公司:Numerai。
"最近有一个公司叫什么来着,他把所有的大模型跑去做交易。那公司本来我以为他是一个搞着玩的,后来我读了一下他们公司的博客,后来发现他们还是一个蛮严肃的做 AI 研究的公司。"
Numerai 的逻辑很有意思:他们认为金融市场的博弈是最难的AI任务之一,因为它是零样本学习的——市场永远在变化,历史数据的模式可能在下一秒就失效。所以他们把各种大模型放进这个"试验场",用真实的市场反馈来测试和改进 AI。
这是一个"让市场来检验 AI"的思路,而不是传统的"在学术 benchmark 上刷分"。
对话到这里,主持人做出了一个犀利的总结:
"所有人类都被淘汰出局,最后只剩机器跟机器在上面搏斗。"
田鸿飞认同这个观点:"其实这个已经在发生了。"
如果你是一个个人投资者,你可能还在用 K 线图、财报分析来做投资决策。但你面对的对手是什么?是能在毫秒级别做出反应的高频交易算法,是能同时分析成千上万条新闻的 NLP 模型,是有着 TB 级别历史数据和超级计算集群支撑的量化基金。
"我个人建议就是个人散户你就别进去在里面做高频交易跟 Agent 去搏斗了。"田鸿飞说,"对于人类来说,人类以后叫做投资,你做中长线就好了,做时间的朋友。"
这是一个务实的建议。在某些领域,人类已经不是 AI 的对手。但这不意味着人类完全出局 —— AI 在长期价值判断、战略思考、跨领域整合方面仍然不如人类。人类应该做的是找到自己的比较优势,而不是和 AI 在它擅长的领域硬碰硬。
"段永平前两天提到了这个事。" 田鸿飞提到了中国知名投资人的观点。价值投资的核心是理解企业的长期价值,而不是预测短期价格波动。前者仍然是人类的领地,后者已经是机器的战场。
特斯拉可能是世界上最大的边缘 AI 公司——它的每一辆车都是一个自主运行的 AI 系统,在本地处理感知、决策、控制。
Indigo 引用了一个 xAI 小工程师的采访(这里指的是 Sulaiman Ghori 的访谈):
"他说 Elon Musk 给他们的指令就是:人就是机器做得更好的事情,坚决不要人做。"
具体到数字,是这样的:只要比人快 8 倍,商业模式就成立。
"任何 Digital Work 的时候,比人快 4-8 倍,那这个商业模式就成立,就是我们一定会雇佣这个 Digital 的东西而不用人。" Indigo 解释道。
这是一个极其简单的商业逻辑。如果一个 AI Agent 能在同样时间内完成人类8倍的工作量,那么即使它的能力只有人类的 80%,它的性价比仍然是压倒性的。
"所以他脑子是很简单,就这样算算数就好了。" Indigo 说。
这意味着 AI 不需要比人类"更聪明"才能取代人类的工作 —— 它只需要"足够快"。
Indigo 提到 xAI 的一个内部代号:Microhard。
"他说 Microhard,我要替代微软的,微软所有业务都可以用这个 AI 实现。"
这是一个惊人的野望。微软是全球最大的企业软件公司之一,它的 Office 套件(Word、Excel、PowerPoint)几乎是每一个白领的日常工具。如果特斯拉能用 AI 做出一个"更好的 Office" —— 或者更准确地说,一个让你根本不需要打开 Office 的 AI 助手——那将是对整个企业软件市场的颠覆。
"再比快 8 倍。" Indigo 补充道。
这就是 xAI 的逻辑:用足够快的 AI 来替代人类的数字工作,从而颠覆整个企业软件市场。这和 OpenAI、Anthropic 的路线完全不同 —— 后者在追求越来越"聪明"的模型,而特斯拉在追求越来越"高效"的执行。
田鸿飞指出,这是特斯拉(或者说 Elon Musk)一贯的方法论:
"他用把 SpaceX 的这个模型再玩了一遍。用 off-the-shelf、最简单最便宜的材料来做大家都本来以为很难的事情。"
SpaceX 革命性的地方不在于它的火箭多先进,而在于它用了大量"现成的"、"便宜的"组件,然后通过软件和系统集成来实现性能。特斯拉的 AI 可能也是同样的思路:不追求最前沿的模型,而是用"够用"的模型做极致的工程优化。
"用特斯拉的 144 TOPS 的这个机器,这个人类模拟器,来解决 Office 的 Work。这个是蛮有意思的。" 田鸿飞说。
讨论到这里,一个更宏观的图景浮现了出来:世界上边缘算力最大的公司是谁?
田鸿飞给出了他的排名:
"所以我是这样看这两家公司的,他们两家公司都是边缘算力巨头。"田鸿飞说。
然后他加了一句:"还有我们。"
Indigo 笑了:"给你立了很大的榜样。"
这不完全是玩笑。Olares 的愿景正是成为边缘AI领域的一个重要玩家。当然,和苹果、特斯拉相比,Olares 目前的规模微不足道。但如果"边缘AI"真的成为下一个计算范式,那么今天的小玩家可能成为明天的巨头——就像 Google 在 2004 年只是一个搜索引擎,但后来成为了整个互联网的基础设施。
对话的最后,主持人问了一个终极问题:
"你觉得在AGI、在超级智能到来的时代,边缘智能会是一个什么样的协同网络?"
田鸿飞的回答从一个物理学原理开始:
"Elon 说的一个很对:既然光速是有限制的,光速是有极限的,那么就不会出现一个垄断一切的超级智能。"
这是一个深刻的洞察。科幻小说里经常描绘一个无所不在、无所不能的超级智能,但物理学给这种想象设定了一个硬性上限:信息传递需要时间,而光速是信息传递的极限速度。
如果你在北京运行一个 AI,它想获取纽约的数据,光纤中的光至少需要几十毫秒才能跑完这段距离。如果它想控制月球上的机器人,信号往返需要 2.5 秒。如果它想影响火星上的任务,延迟是 4 到 24 分钟。
"因为你总是有上限嘛,那上限大家都会到上限,那上限我们怎么竞争呢?"田鸿飞说。
这意味着即使 AI 变得无限聪明,它也无法摆脱物理学的限制。在足够大的空间尺度上,中心化的控制是不可能的。分布式、去中心化的架构不仅是一种选择,而是一种必然。

"你能到达光速,我也能到达光速,那我们迟早要 PK 嘛。" Indigo 说。
这是博弈论的经典逻辑。如果每个参与者都能达到某种能力上限,那么最终的结局不会是某一方的绝对胜利,而是某种形式的均衡。
在 AI 的语境下,这意味着不会出现一个"统治一切的超级智能"。更可能的场景是多个智能体——有的在云端,有的在边缘,有的代表个人,有的代表企业——在某种协议框架下共存、竞争、协作。
"所以说不会存在这样一种超级智能,"田鸿飞说,"如果我们把智能推到极限,那我们就是每一个端侧的智能,或者服务器端的智能,你只要足够好、性能足够强大,那你就会——我们是均衡的力量。"
对话的最后,两位老友勾勒出了他们共同的愿景:
云端将存在具有极高推理能力的大模型,因为数据中心的算力确实更大。但这些"超级智能"不会垄断一切。
边缘将部署大量的"次级智能",它们在本地处理日常任务、保护个人隐私、快速响应交互需求。
两者之间通过某种协议进行协作。边缘智能可以调用云端的大模型来处理复杂任务,云端模型可以利用边缘设备产生的数据来持续学习。
"以后我们互联网就不叫做互联网了,应该叫做 Intelligent,叫智能 Web。" Indigo 补充了一个更具体的场景:
"以后网站我开发一个服务,我都不是给人用的嘛。你看你现在 Computer Use,然后去看人类用的那些网站。如果说我想更高效,那我的 Agent 和你的 Agent,我们访问你的服务,我就一套 API,或者是一个什么 MCP,或者一套 Skill 协议就搞定了。这通讯效率巨高,所有东西都会可能是十倍百倍的提效。"
这描绘了一个 Agent-to-Agent 的世界:网站不再是为人类设计的图形界面,而是为 AI设计的 API 接口;交互不再是人类点击按钮,而是 Agent 之间的协议通信;效率的提升不是 10%、20%,而是 10 倍、100 倍。
当 Agent 开始代替人类进行交易时,支付系统也需要改变。
"Agent 支付肯定是用 Crypto 支付嘛。"Indigo 说,"直接绕过人类这一层了,都不需要人类的这个 KYC 的。"
这是区块链技术可能找到的一个真正的应用场景。人类的支付系统建立在身份认证(KYC)和法规合规的基础上,但 Agent 不是人——它没有护照,没有社会安全号,没有银行账户。如果 Agent 需要支付另一个 Agent 的服务费用,用传统的金融系统是极其笨拙的。
而加密货币天生适合这个场景:它是可编程的,不需要中间人,可以在毫秒级别完成清算。
"我们 Olares 的 ID,其实是基于区块链的 DID(去中心化身份)设计的。" 田鸿飞说,"我们虽然不是一个区块链企业,但是我们其实用了很多区块链的技术。我们有个信仰,是觉得未来的 Agent 和 Agent 之间的协作,如果是基于市场机制的协作的话,很可能会需要用到代币去支付对方的费用。"
这就闭合了一个逻辑环:边缘设备产生数据和执行任务,AI 模型提供智能,区块链提供身份和支付基础设施,所有这些组件通过开放的协议连接在一起,形成一个去中心化的智能网络。
这场长达七十多分钟的对话,从一款边缘 AI 设备开始,最终触及了关于智能、隐私、去中心化和人类未来的根本问题。
田鸿飞的技术轨迹 —— 从网格计算到比特币,从创新工场到 Olares —— 贯穿着一个一以贯之的理想:分布式、去中心化、个人主权。这不仅是一种技术偏好,更是一种价值主张:在一个日益中心化的世界里,个人应该有能力掌控自己的数据、自己的计算、自己的数字存在。
Olares One 只是这个理想的一个具体载体。它可能成功,也可能失败,但它代表的方向 —— 边缘 AI、个人云、分布式智能 —— 几乎肯定会继续发展。
当所有人都在仰望云端的超级智能时,也许我们应该低下头看看:真正的智能革命,可能正在我们每个人的桌上、口袋里、家里的角落中悄然发生。
正如田鸿飞在对话结束时说的:
"边缘算力以后是这个智能世界最大的一个趋势。云端他可能在做,但云端他也会把模型慢慢训练好然后边缘去部署。然后边缘会生成大量的硬件出来,最后来做计算。"
我们正站在一个分岔路口。一条路通向中心化的超级智能,由少数科技巨头控制;另一条路通向分布式的智能网络,由无数节点共同涌现。历史会证明哪条路是对的,但至少,选择权仍然在我们手中。
毕竟,光速是有限的,而人类的想象力不是。
本文基于 Indigo Talk 播客第 41 期整理创作,嘉宾:田鸿飞(Olares 联合创始人)
2026-01-26 12:01:46

本文整理自「孤独大脑」主理人老喻的“人生复利花园” 2026 一月内部直播转录。
主持人老喻是一位长期关注人生复利方法论的思考者,得到畅销课程「人生算法」的主讲人,嘉宾 Indigo 则是微博创始团队成员,如今活跃于 AI 领域的投资与研究前沿。两人的住所在温哥华仅相隔几分钟车程,这种地理上的亲近也延伸到了思想上的共鸣。
这场对话的起点,是一个令人不安却又无法回避的观察 —— AI 已经成为全世界最大的变量,而且"看起来刚开始"。
老喻做了个比喻;现在的世界,特别像海啸来临之前那种令人意外的平静。一方面,人们觉得 AI 很厉害;另一方面,又觉得"跟我有啥关系"。一方面,AI 已经成为最好的老师;另一方面,孩子们回到家里还在背三字经。
这种奇怪的割裂感,恰恰说明了我们正处于一个巨大变革的前夜。
整个对谈约 2 小时,涵盖了 AI 投资、个人成长、职业发展、教育、一人公司、乐观心态和 2026 年科技预测等多个主题。老喻完整的十七个问题和简要答案,请看文章后半段 👀
Apple Podcast & Spotify 播客 | 小宇宙播客

Indigo 在对话开始时,引用了一位法国学者的理论。这位学者生活在一战与二战之间那个动荡的年代,他提出了一个观察世界的独特框架。
这个理论将影响历史的因素分为三个层次:
短期 —— 个体与事件。一个总统的任期是四年,一场选举的结果可能很快就会被遗忘。这些是历史的泡沫,浮在最表面,看起来热闹非凡,实际上对长期走向的影响有限。
中期 —— 潮流与趋势。经济周期的起伏、社会思潮的变迁、政治格局的调整。这些变化需要数年甚至数十年才能显现其全貌。
长期 —— 力量与洋流。地缘、气候、人口——这些是决定历史走向的底层结构。它们像大海深处的洋流,表面上看不见,却决定了整个海洋的温度和流向。
但这位学者生活在 20 世纪初期,那时刚刚经历第二次工业革命,电力才开始普及。他无法预见的是,在 20 世纪之后,科技本身已经从一种"潮流"演变成了一种"力量"——它不再只是历史的配角,而是成为了决定文明走向的深海洋流。
人类文明的发展曲线,在过去几千年里几乎是平的。农耕文明延续了数千年,普通人的生活方式代代相传,几乎没有本质变化。
然后,蒸汽机出现了。
这条曲线开始上扬。电力革命让它变得更陡。计算机时代让它再次加速。互联网、移动互联网,每一次技术跃迁都在缩短曲线变陡的周期。
而我们这一代人,不管是几零后,恰好活在这条曲线最陡峭的位置上。
Indigo 引用了康波周期理论来解释这个加速过程。康波周期是一种长达 50 - 60 年的经济周期,每个周期都由一项核心技术驱动;
第五个周期见证了个人电脑的普及、互联网的兴起、移动互联网的爆发。Indigo 作为微博创始团队成员,亲历了互联网和移动互联网两次浪潮。但他坦言,回头来看,移动互联网"充其量只算是信息传递和收发的革命"。
我们确实能够 24 小时获取信息了,可以看视频、点外卖、叫车 —— 都可以在手机上完成。这当然是巨大的变革。但仔细想想,移动互联网并没有真正革新我们的生产力。真正的生产力变革,其实来自更早的PC时代;微软操作系统、云计算、各种生产力软件。
而 AI 革命的不同之处在于:它直接从生产力开始。

老喻在对话中提出了一个极具洞察力的观点:我们过去谈论技术进步,习惯用一种"并列叙述" —— 蒸汽机、电力、计算机、互联网、人工智能。这种叙述方式把它们放在同一条时间线上,好像AI只是这条线上的最新一个点。
但这种理解可能严重低估了AI的颠覆性。
AI 不是这条线上的一个新节点,而是会倒过来,把移动互联网、互联网、电力、机械,甚至农耕文明、甚至生命本身,全部反包掉。
什么叫"反包"?就是 AI 可能会用全新的方式,重新发明这些东西。
想想看,AI 可以设计更高效的芯片,可以优化电网的运行,可以发现新材料、新药物,可以重新理解生命的运作机制。它不是站在前人肩膀上的又一个巨人,而是一个可以回头去改造所有肩膀的存在。
这就是为什么 Hinton(深度学习之父)说 AI 革命"至少和电力革命一样重要",而且"有可能超过电力"。因为电力给我们提供了能量和动力,而AI给我们提供了智力。
这两样东西,根本不在一个维度上。
当然,正如 Indigo 指出的,AI 要做好也离不开电 —— 现在这两样东西是环环相扣的。但智力的赋能,其潜力是无法估量的。
一个有趣的现象是,不同的人对 AI 的感受截然不同。
有些人觉得 AI 简直是神器,彻底改变了他们的工作方式;有些人觉得 AI 不过是个"聊天机器人",问点问题回答得还不太靠谱。
Indigo 用一个生动的比喻来解释这种差异;AI 的能力分布是锯齿状的,像一个齿轮。有些地方特别厉害,可以拿数学奥赛金牌;有些地方却很弱智,连句子里有几个字母都数不清楚。
这种锯齿状的能力分布,导致不同人的体验完全不同——取决于你的工作恰好落在齿轮的高点还是低点。
程序员群体受到的冲击最大,也最早感受到AI的威力。一个程序员用 AI 辅助编程,生产力可以提升数倍甚至十倍。
在线客服、自动化营销、内容创作 —— 这些领域也在快速被 AI 重塑。
2026年的重点方向是科研。AI 正在加速科学发现,从药物研发到材料科学,从蛋白质结构预测到数学定理证明。
但如果你的工作不需要太多"第三方智能的支持",你可能就觉得 AI 不过如此 —— 只是一个陪你聊天的机器人而已。
这种感知差异是正常的,但它不代表 AI 不重要。它只是说明,变革正在以不均匀的方式渗透进不同的领域。

老喻分享了一个让他深受触动的亲身经历。
他在去年做了一个小范围测试项目——一个线上的"人生复利行动营"。这个项目工作量巨大,涉及大量交互设计和一对一深度测评。
他用了大约两个周末的时间,通过复杂的提示词工程,加上一点 Vibe Coding(一种 AI 辅助编程方式),完成了整个项目。
他是一个外行,不是技术人员。但他做出来的东西,如果换在过去,需要一个二三十人的技术团队,干半年到一年才能完成。而且从结果来看,传统团队做出来的可能还达不到他现在这个水平。
这种生产力的跃迁,是实实在在的。
它不是 PPT上 的概念,不是媒体的炒作,而是一个普通人在两个周末里亲手触摸到的未来。

对话中提到了一个有趣的故事;Elon Musk 在 2025 年经历了一次重要的思想转变。
我们知道,Musk 曾经投身于美国政府效率部(DOGE)的工作,试图削减政府开支、裁减冗员。他像整治 Twitter 一样,想要整治美国庞大低效的官僚系统。
但后来,他发生了一个特别大的转变。
这个转变的催化剂来自他亦敌亦友的 Peter Thiel。Peter Thiel 给 Musk 灌输了一个关键的概念;
"老马你根本就别操心这些事。这些事是操心不完的。反正蠢人是没法救的。"
这话听起来刻薄,但 Peter Thiel 的核心论点是;AI 可以把这些问题全部解决掉。AI 带来的生产力释放——10 倍、100 倍、10 的n次方——会让所有的担心都变得不再重要。
与其去和官僚系统死磕,不如把精力放在推动 AI 发展上。
Musk 后来在 All-In Podcast 里反思这段经历时说了一句让 Indigo 印象深刻的话。他说那些人"已经蠢到无药可救了,我没必要这样"。
然后呢?Musk 回到了特斯拉,不再去白宫睡地板了。他在自己的 AI 项目上下了重注——Grok(xAI 的 AI 模型)现在已经成为老喻用得第二多的 AI 工具(第一是 Gemini)。而且进步速度肉眼可见,越来越好用。
这个故事的启示是:即使是美国那样看似无解的巨额国债和社会问题,在 AI 乐观主义者看来,也是可以通过技术进步来解决的。
发展 AI,用 AI 来解决问题 —— 这成了 Musk 的新策略。
说到 AI 乐观主义的源头,不得不提 Deepmind。
Deepmind 成立的时候,第一位投资人正是 Peter Thiel。Peter Thiel 后来邀请 Musk 一起投资,但 Musk 当时似乎没看上这个项目,把它推给了 Larry Page(Google 创始人)。Deepmind 的创始人 Demis Hassabis 后来开玩笑说;"这个人只想去火星,不关心我们这个东西。"
但 Deepmind 成立之初就有一个极其宏大的愿景;
"先解决智能问题,再解决人类所有问题。"
这句话现在看来几乎是一种预言。Deepmind 要做通用人工智能(AGI),解决智能这个根本性问题,然后用它来解决其他所有问题。
这不是狂妄,而是一种建立在技术基础上的乐观主义信念。
Indigo 引用了英国理论物理学家 David Deutsch 的观点来阐述他的乐观主义立场:
"我们人类肯定有解决不完的问题。问题是不可避免的。但问题是可以解决的。"
这是乐观主义的核心;我们永远有解决不完的问题,但我们也永远可以把问题解决掉。如果不是这样,社会就是一个静态社会,静态社会是无法进步的。
Indigo 说他和 Elon Musk 的乐观程度差不多。他是一个彻底的科技乐观主义者。

对话中有一个特别动人的故事,关于"深度学习之父" Geoffrey Hinton。
现在的 Hinton 是 AI 领域的泰斗,诺贝尔奖得主,但他早年有过一段特别艰难的时光。
当时,深度神经网络被主流学术界认为是死胡同。这种方法被认为"走不通","不够优雅","理论基础不足"。Hinton 和他的同伴们甚至不敢用"神经网络"这个名字 —— 因为听起来像骗子 —— 所以他们另起了一个名字叫"深度学习"。
他们被美国学术界边缘化,最后跑到加拿大 —— 被 Indigo 戏称为"傻国家" —— 才勉强找到容身之所。
有一次,Hinton 去一所美国大学(可能是卡内基梅隆)求职。他找到系主任,开口就说;"我只要一半的薪水。"
系主任有点心动。
但 Hinton 是个诚实的人,他接着说;"我得向你承认一件事 —— 我不是很懂计算机。"
一个做 AI 研究的人,不懂计算机?这听起来很荒唐。但系主任说:"没关系,我们这有的是懂计算机的。"
过了一会儿,Hinton 又补充道;"我还得向你承认一件事 —— 我的数学也不是很好。"
这就更荒唐了。做 AI 研究,又不懂计算机,数学还不好?
但事实上,Hinton 确实把很多数学工作交给了他的本科生和博士生来做。他自己的强项是深度思考 —— 他能看到别人看不到的东西,能相信别人不敢相信的东西。
故事的转折点来了。
面对这样一个看起来"毫无前途的方向"和一个"看起来特别不靠谱的人",那位系主任最终还是决定录用 Hinton。
为什么?
因为他脑海里冒出了一个念头:
"万一这个疯子对了呢?"
这是一个极具智慧的思考方式。作为前沿领域的探索者,很多事情看起来像小火种——要么熄灭了,什么都没有;要么一旦成功,就是彻底颠覆性的改变。
系主任做了一个聪明的决定:他押注在"万一"上面。
后来的事情我们都知道了。深度学习在沉寂多年后爆发,AlexNet 在 2012 年的ImageNet 竞赛中碾压传统方法,开启了 AI 的新纪元。Hinton 成为了 AI 教父,他的学生们(包括 OpenAI 和 Google 的核心人物)改变了世界。
在个人的思考层面,保持怀疑和批判是可以的,甚至是必要的。但在人生的决策层面——财务决策、工作决策、学习决策——我们应该假设"这个疯子可能是对的"。
正如 Indigo 所说;即使现在所有 AI 研发公司都停下来,什么都不干,现有模型的能力都够这个世界消化 5 年。
可能 5 年之后,这个世界都还没准备好。

一个关键的洞察是;虽然AI技术本身进步飞快,但 AI 重塑社会结构的速度要慢得多。
一项新技术从研究室走向大众,需要经历一个漫长的渗透过程:
这是一个物理效应,是社会结构本身的特性。即使有了互联网,信息传播快了很多,但你要渗透几十亿人口、无数企业和机构,不是一两年的事情,而是 5 年、10 年、15 年、甚至 20 年。
这个时间差,正是普通人的机遇窗口。
Indigo 提出了一个发人深省的假设:
如果今天我们把 AI 研究暂停,现有模型的能力,够我们消化 5 年。
这不是夸张。想想看;
这些能力已经在那里了,但大多数人、大多数企业、大多数行业还没有真正学会如何利用它们。
这个消化过程,就是机遇所在。
Indigo 的建议很直接:至少要持有这些 AI 龙头公司的股票,成为它们的股东。
不是炒股票那种 —— 今天买明天卖。而是真正的股东心态,长期持有。
因为如果 AI 真的像我们分析的那样是改变世界的根本性力量,那么不参与其中,本身就是一个巨大的风险。
你不需要成为 AI 专家,不需要自己创业做 AI 公司,但你至少可以通过投资,让自己站在这股浪潮的正确一边。

对话的后半部分,话题转向了决策和选择。
Indigo 分享了他对自己的一个重要认知;"我从来做不了CEO。"
这句话说出来需要勇气。在很多人看来,承认自己在某件重要的事情上"不擅长",是一种示弱。尤其对于一个年轻气盛的人,这种自我否定很难启齿。
但这恰恰是做出正确决策的前提。
老喻总结了他的"人生复利方法论"中的一个核心引擎;
To Be → To Choose
也就是:先定义"我要成为什么样的人",然后才是"我做出什么选择"。
这里的"To Be"有点像莎士比亚所说的 —— 关于存在,关于人生的意义,关于"我这辈子到底要成为什么"。
如果你不清晰地定义自己是什么样的人,你就很难做出正确的选择。
老喻提到了另一位朋友的例子,一个做二级市场投资的人。
这位朋友很早就发现自己"干不了实事" —— 你让他做具体的事情,他都很烦。
对一个男性而言,承认这一点可能更难。社会期待男性是"实干家","能做事的人"。
但这位朋友很坚定地认定了这一点,然后专注于做二级市场投资 —— 纯粹的脑力劳动,不需要管理团队,不需要处理具体事务。结果呢?他做到了百亿级别的规模。
自知之明是做出正确决策的前提。
如果你不知道"正确的我"是什么,你就很难做出"正确的决定"。
Indigo 坦言是一个适合当 CEO 的人。CEO 需要"一根筋",需要对一件事情极度坚持。但他的性格是"想法比较多,点子比较多" —— 更适合做策略提供者、方向建议者,而不是一线的执行者。
认识到这一点后,他选择了做投资,而不是继续创业。投资更灵活,更符合他的风格。
离开微博后,他帮助了很多人做不同类型的公司 —— 包括李佳琦背后的团队 —— 以提供策略和方向的方式参与,而不是亲自下场当 CEO。
这是一个基于自我认知的聪明选择。
老喻问 Indigo:你的乐观是一种天性,还是一种主动的选择?
Indigo 的回答是:性格占了很大一部分。
他在一个有安全感的家庭中长大。童年的安全感,会深刻地影响一个人成年后的心理底色。那些在充满爱和稳定环境中长大的人,更容易对世界保持基本的信任和乐观。
这是乐观的第一层来源:早期经历塑造的性格特质。
但乐观还有第二层来源,这是成年人可以主动选择的:科技乐观主义。
这是硅谷的主流思维方式。它建立在一个核心信念上:我们正处于一个加速时代,科技进步的速度越来越快。在这样的时代,如果你还很悲观,你就会错过所有机会。
所以你要"强行让自己乐观起来"。
这听起来有点像自我催眠,但 Indigo 的表述更有深意:"相信这些东西,它真的就会成为真的。"
这不是盲目的乐观,而是一种基于理性分析的选择;既然大趋势是向上的,既然技术进步是可预期的,那么乐观就是一种更聪明的立场。
对话中引用了一句著名的话:"悲观者永远正确,乐观者才会成功。"
悲观者当然正确 —— 说这个不行、那个不好,总能找到证据。因为世界上的问题确实无穷无尽,挑毛病永远是最容易的事情。
但问题是;悲观除了让你"正确",还能给你带来什么?
它不会让你创造任何东西,不会让你抓住任何机会,不会让你的生活变得更好。
乐观者向前走。乐观者尝试。乐观者有时候会失败,但乐观者也会成功。
主持人的总结很精辟;不选择乐观其实是一个很愚蠢的事情。咱们就活这么短,何必让"这不好那不好"的想法占据我们的人生?
生命的本质意义,是在荒漠中去寻找甘泉,去发现微弱的幼苗。
对话的最后部分,Indigo 分享了他对 2026 年的十个预测。这些预测基于他作为投资人的专业视角,每一条都值得关注。
2025 年的 AI 关键词是"Agent"(智能体)和"推理"(Reasoning)。2026 年,**持续学习(**Continual Learning)将成为核心研究方向。
持续学习是指让模型能够动态地、不停地自我演化,而不是训练一次就固定下来。这是通向真正智能的关键一步。
Indigo 特别提到,这个领域最好的团队在阿尔伯塔大学(也是强化学习之父 Richard Sutton 所在的地方) 和 Gemini。
在大模型公司的竞争中,Indigo 预测 Grok(xAI)会在 2026 年显著进步。
2025 年,Google 翻盘了,在主流评测中表现亮眼。2026 年,Grok 也将迎来自己的突破时刻。
同时,各家模型公司会形成更清晰的差异化方向:
2026 年将是 Agent 电商真正落地的一年。
我们现在已经能在聊天界面里点外卖、买东西。这种趋势会加速。Indigo 预测,大约50亿美元的广告或交易量将来自于用户在 chatbot 对话中产生的购买 —— 让 Agent 自动帮你买东西。
这是巨大的市场。麦肯锡的预测显示,电商仍然是世界上最大的生意。而服务于这个最大生意的 AI 工具,必然要吃下这个最大的市场。
对投资者来说,2026 年要密切关注 Google、OpenAI 等公司如何在 Agent 支付和购物领域展示实力、优化体验、创造收入。
2026 年下半年或年底,将有一款深层次的世界模型游戏惊艳亮相。
世界模型(World Model)是指 AI 能够理解和模拟物理世界运作规律的能力。将这种能力应用于游戏,可以创造出前所未有的沉浸式体验。
Indigo 特别看好 xAI 的游戏工作室 —— Musk已经"藏了一年多了",2026 年应该会发布一些产品计划。
更重要的是,Indigo 认为 AI 驱动的互动游戏未来会超过电影的所有总和。因为我们以后会"生活在"这种世界里面。
2026 年,AI 将独立完成一个真正的科学发现 —— 自己发现问题、自己研究、自己做调研、完成一个真正的科学突破。
这是 AI for Science 的里程碑时刻,Indigo认 为至少会完成一个。
他特别强调:AI 的 To C市场(面向消费者)不要再跟巨头抢了,更多机会在前沿市场—— 科研、企业服务、世界模拟。
为什么?因为 TOKEN 消耗的经济价值不一样。一个博士生研究员花费的 TOKEN,产生的经济价值远远高于普通人的日常聊天。
"你那两个问题怎么可能有科学家的问题值钱呢?"
2026 年可能会出现一次震惊世界的 AI Agent 网络攻击。
随着 AI Agent 能力的增强,它们被用于网络攻击的风险也在增加。自主决策、自主执行的 Agent,可能被恶意使用者用来发动前所未有的网络攻击。
这是 AI 发展的阴暗面,也是我们必须警惕的风险。
一个有趣的地缘政治预测,AI 中立国会出现。
就像核武器时代有中立国一样,AI 时代也会有国家选择"两边都采用,保持平衡"的策略。
美国和中国都有强大的 AI 能力和自己的模型。但很多国家没有。这些国家不能把自己的数据基础设施、智能基础设施都押注在某一方身上。就像印度同时购买美国和俄罗斯的武器一样,它们会采取平衡策略。
2026 年,这会成为一个很现实的问题,会有很多相关的新闻出现。因为 AI 再发展两个季度,它的能力就基本上是国防级实力了。
2026 年将是 Robotaxi 真正落地的一年。
自动驾驶出租车会在美国很多城市普及,这是自动驾驶技术成熟的重要信号。
2026 年会有大量机器人公司出现,行业将迎来一波热潮。
但 Indigo 也警告;这个行业泡沫非常多。泡沫不一定在 2026 年破裂,但投资者需要保持警惕。
Indigo 强调,他所有的预测都是从投资视角出发的。他主要做这个行业的观察和投资,所以分析自然带有投资人的色彩。
至于政治和经济的预测,"在微信直播里也不好说",所以他没有做太多展开。

对话临近尾声时,老喻分享了一个让他印象深刻的小故事。
大约在 2003 - 2004 年,他还在做房地产的时候,读到一本美国人写的书。书里引用了一个人的一句话。这个人当时毫无名气,主持人周围没有任何人听说过他。但那句话说得太好了,主持人把它用在了公司内刊的卷首语上。
多年以后,他才知道这个人是谁;Elon Musk。
那时候是互联网刚刚兴起的时代,Musk 说的话是;
"互联网是一个正在改变世界的、特别巨大的事情。我的态度特别简单——我不管怎么样,我得跳进去。我不想做一个旁观者。"
这句话放在今天的 AI 时代,依然振聋发聩。AI 正在改变世界,这已经不是需要争论的话题了。问题是;你要做一个旁观者,还是参与者?
老喻的总结是;
我觉得在这个 AI 的时代,我们应该快乐一点,像 Indigo 这样乐观一点,参与其中。想一想 AI 如何能够让我们自己变得更好。我们应该去享受它,享受它给我们带来的美好的那一面。
问题1 | 时间戳:00:06:22 - 00:06:44
问题内容:你说过决定历史的不是表面上的泡沫,而是深海的洋流。能不能描述一下你认为真实世界暗潮涌动的这些大海深处的洋流到底是什么?
Indigo 引用法国学者的理论,指出历史由地缘(地理、气候、人口)决定。自工业革命后,科技已从"潮流"变成"洋流"——成为决定社会结构变化的深层力量。AI 革命的意义比移动互联网大得多:移动互联网只是信息传递革命,而AI直接变革生产力。AI能力呈"锯齿状"发展,部分领域已能拿数学奥赛金牌,但在某些简单任务上还有欠缺。
问题2 | 时间戳:00:13:51 - 00:14:23
问题内容:你会相信AI治万病吗?所有东西都可以搞定?你会乐观到什么程度——是木头姐的程度、Peter Thiel的程度、还是Elon Musk的程度?
Indigo 表示自己与 Elon Musk 一样乐观。他引用 DeepMind 创立时的愿景:"先解决智能问题,再解决人类所有问题"。AI 革命超过之前任何一次科技革命,电力给人类能量和动力,而 AI 给人类智力。引用物理学家戴维·多奇的观点:"问题不可避免,但问题可以解决"——这是乐观主义的核心。
问题3 | 时间戳:00:19:59 - 00:20:18
问题内容:普通人该怎么办?这太快了,感觉这块肉就是大公司给吃了。对普通人和家庭,如果从投资的角度,能给到一些建议吗?
Indigo 指出 AI 对社会结构的渗透很慢,需要 5-15 年。即使现在 AI 研究暂停,现有模型能力也够消化5年。从投资角度:(1) 房产应自住为主,可用抵押贷款做杠杆投资其他资产;(2) 美股 ETF 是跟上科技变革的好方式;(3) 看准代表时代的龙头公司 —— 英伟达和谷歌未来 10 年可能主导,就像苹果主导了2010-2024年的移动互联网时代;(4) 中国看好字节、腾讯和阿里。
问题4 | 时间戳:00:32:36 - 00:33:03
问题内容:数据中心投资超过写字楼,资产逻辑正在切换。能不能分享一下这个资产逻辑的切换?
2018 年物流仓库建设超过购物中心,现在数据中心超过写字楼——这反映了生产力工具的转变。年轻人(2000年后出生)对房产认同感低,更倾向于数字资产(Crypto等),这是对"旧世界资产被囤积"的反抗。老喻补充了自己的定义:住宅本质上是生产力工具的存放仓库——房价与居住者的生产力成正比。
问题5 | 时间戳:00:45:19 - 00:45:48
问题内容:你预测2026年商业物种将从运营频道转向拥有 AI 工作室。从个体角度,能不能谈谈普通人的能力、机遇与挑战?
Indigo 分享了两个重要趋势:
问题6 | 时间戳:00:54:13 - 00:54:28
问题内容:你怎么看Meta的潜力?包括它的眼镜和公司自身?
Meta 在 AI 上"伤了元气"。公司把大量精力放在了 Metaverse 和 Reality Lab 上,而语言模型落后了。原因:(1) 没有像 Google、微软、Amazon 那样将云计算部署给第三方的经验;(2) 扎克伯格的技术选型 taste 像微软(不够好),总选错技术路线 —— 比如早年坚持用网页技术做移动 App 而失败。Meta 能赶上 Grok 就谢天谢地了。
问题7 | 时间戳:00:58:02 - 00:58:49
问题内容:你怎么看腾讯在游戏这块的未来?会不会被AI突然颠覆?
腾讯是全球最强大的游戏公司,控制了世界最好游戏引擎 Unreal 约 40% 股份,网络游戏和主机游戏收购都做得很好。Indigo 非常看好游戏产业的 AI 颠覆:
问题8 | 时间戳:01:02:36 - 01:03:52
问题内容:如何建立高信噪比的信息摄入系统?能给我们一些具体的框架吗?
嘉宾回答总结:
老喻补充"三屏法":一屏看顶级人物的内容,一屏用 AI 解释概念和补齐知识,中间一屏是自己的学习输出。
问题9 | 时间戳:01:09:03 - 01:09:41
问题内容:如何对抗大脑腐烂?AI 时代育儿的观念需要怎样改变?
嘉宾回答总结:
问题10 | 时间戳:01:16:58 - 01:17:02
老喻引用Indigo的观点,提到大模型从商业上消灭中间商,从职场上消灭中间层,询问如何面对这种"中空效应",即公司层面和职场上对于中间层的消灭。
嘉宾回答总结:
问题11 | 时间戳:01:24:01 - 01:24:27
对于被AI影响的中间层,可以培养哪些能力?可以主动做些什么?有哪些技能或元技能可以在周末或晚上自我强化?
嘉宾回答总结:
问题12 | 时间戳:01:27:00 - 01:27:30
现在流行的"一人公司",是一个故事还是在硅谷/北美已经有成功案例?能否分享一下?
嘉宾回答总结:
问题13 | 时间戳:01:31:45 - 01:32:00
作为一人公司,如何更好地运用 AI 和 Agent?对于 Vibe coding 可以做什么?
嘉宾回答总结:
问题14 | 时间戳:01:35:11 - 01:35:40
如何定义副业?副业有两种:一种是完全不同的领域,一种是和主业相关但用AI延伸(如教别人用 AI 做自媒体)
嘉宾回答总结:
问题15 | 时间戳:01:42:05 - 01:42:20
你个人有没有不那么乐观的时候?从深圳到北京到温哥华,哪段时间没那么乐观?
嘉宾回答总结:
问题16 | 时间戳:01:50:39 - 01:50:43
你的乐观是一种天性,还是一种主动的选择?
嘉宾回答总结:
问题17 | 时间戳:01:54:24 - 01:54:38
请分享你在之前演讲中提到的对 2026 年的十个预测。
嘉宾回答总结(部分预测):
在这个 AI 重塑一切的时代,我们应该如何理解世界,如何做出选择,如何活出意义?
答案或许因人而异,但有几点是确定的:
我们活在一个特殊的时代——人类文明曲线最陡峭的位置上。
这既是挑战,也是机遇。
关键在于,你选择站在哪一边。
2026-01-21 08:30:33

每一年的新年,都是一个回望与前瞻的节点。对于科技领域的观察者而言,2025 年是一个不得不被铭记的年份 —— AI 从"可以帮我们干点活"的工具,一跃成为"锯齿状智能"的存在:它在某些领域碾压人类,却在日常场景中时而表现得像个"弱智"。
这种奇特的不均衡,恰恰揭示了我们所处时代的本质:我们正站在一个由算力驱动的新文明入口。 一切问题,终将被重新定义为计算问题;一切解决方案,终将汇聚于算力的洪流之中。
视频时间戳

要理解当下,我们首先需要一个看待历史的框架。
法国年鉴学派历史学家费尔南·布罗代尔(Fernand Braudel)提出过一个精妙的历史观:历史如同海洋,分为三层——
第一层是表面的泡沫:日常事件、新闻头条、政策调整。这些是我们每天看到的东西,绝大多数都是噪音,转瞬即逝。
第二层是缓慢变化的洋流:制度、人口、经济结构。这些变化需要数十年甚至上百年才能完成,但一旦形成,就会持续塑造上层的一切。
第三层是深海的地质结构:地理、气候、资源分布。这是最慢也最根本的变量,它决定了人类文明的基本格局。

布罗代尔生活在二战前后,他的视野中,地缘是那个最深层的力量。但今天,我们必须在这个框架中加入一个新的变量 —— 科技,尤其是人工智能。
如果说过去人类文明的版图是由地理塑造的,那么未来的版图将由算力重新绘制。
AI 正在成为这个时代的深层驱动力。它不是表面的泡沫,不是某个公司的产品发布或某项政策的出台——它是正在改变一切的洋流。
这股洋流的力量有多大?我们可以从一个简单的传导链条来理解:

这条链条正在快速展开。美国 2024 年第四季度 GDP 增速突破 4% —— 几十年来首次——主要驱动力就是 AI 基础设施建设。所有的数据中心、所有的芯片订单、所有的电力投资,都在为这个新时代铺路。
如果用一张图来描述AI的发展阶段,我们现在正处于一个被称为"锯齿状智能"的时期。

这个概念来自 Andrej Karpathy 的精准描述:当前的AI像一把锯齿形的刀刃——在某些领域锋利无比(数学奥赛金牌水平),在另一些领域却钝得可笑(数不清"Strawberry"里有几个"r")。
2023 年:AI 还是玩具,新奇但不实用。
2024 年:AI 可以帮我们干点活了——回复邮件、简单问答、辅助写作。
2025 年:推理能力的突破让AI变得更好用,但它依然是半成熟的智能。
2026-2027 年:我们可能会迎来"难以置信的智能"——它只在少数因素上失败,绝大多数情况下都能成功。
2030年之后:或许,真正的 AGI 将开始显现。
但这里有一个关键的认知:AI 的进步速度远超人类社会的消化速度。 即便 Transformer 架构今天就停止进化,人类社会也需要十年以上的时间来完全适应和应用现有的能力。
正如 Karpathy 所说:我们还处于人工智能时代的"1960年代" —— 刚刚发明了半导体,无数的变化还在前方等待着我们。
2025年最重要的技术突破,是推理能力的普及。

从 OpenAI 的 o1 到 o3,再到 o4 和各家模型的跟进,"思考"不再是人类的专利。模型开始学会在给出答案之前进行推理——拆解问题、验证步骤、修正错误。
这听起来很简单,但它代表了 AI能力的质变:从"快速反应"到"深度思考",从"模式匹配"到"问题求解"。


来自 EPOCH 的数据显示了一个惊人的趋势:
你可以想象这意味着什么——指数级增长的智能,正在以人类难以感知的速度积累。
2025年1月,DeepSeek 横空出世,给全世界"踢了一脚"。
这一脚的力度有多大?英伟达股价单日跌掉 30%。整个硅谷开始重新审视:中国的AI 实力,是否被严重低估了?
DeepSeek 的意义不仅在于它的性能,更在于它代表的路径 —— 用更少的资源实现接近前沿的能力。它证明了:AI 的发展不一定需要无限的算力堆叠,聪明的架构设计和训练方法同样关键。
这是开源模型与闭源模型差距最小的时刻。在 2025 年初,两者几乎并驾齐驱。但随后,闭源模型(o4、GPT-5、Gemini 2.5、Claude 4)快速拉开了差距。这场竞赛还远未结束。
2025 年,还有一个不可忽视的变化:OpenAI 首次失去了绝对领先地位。
这并不意味着它掉到了第二名 —— 但它的领先优势被实质性地挑战了。
挑战者是谁?Google Gemini。

来自 SimilarWeb 的数据清晰地展示了这个趋势:
Google 的苏醒不是偶然的。当整个公司以 Gemini 为基座进行革新时,它积累了二十年的数据优势、基础设施优势和分发优势开始释放出来。

一个值得深思的预判:如果 AI 的未来是"模型即应用、模型即分发",那么拥有最强分发能力的公司将拥有最大的优势。 在这个标准下,Google 的潜力或许被市场低估了。
2025年还有两个改变行业格局的关键词:Vibe Coding 和 Claude Code。
Vibe Coding代表了一种新的编程范式 —— 你不再需要逐行编写代码,而是用自然语言描述你想要的结果,AI 来实现细节。这不是"辅助编程",而是"意图驱动的创造"。
Claude Code 则把这个范式推向了极致。Anthropic 前不久发布的 Cowork,本身就是由 Claude Code 在两周内完成的 —— 人类只负责提需求和验证,代码由 AI 自己编写。
这意味着什么?AI 已经可以自己实现自己的功能了。 虽然还需要人类的指导和把关,但自我进化的雏形已经显现。
硬币的另一面是:AI 能够创造大量内容,也意味着大量垃圾内容的泛滥。
"AI Slop"(AI 垃圾)成为 2025 年的一个新词汇。低质量的 AI 生成文章、视频、图片充斥网络,真正有价值的内容反而被淹没。
这带来了一个深刻的悖论:AI 让创作变得更容易,却让发现好内容变得更难。 在信息过载的时代,"策展"和"品味"的价值不是降低了,而是大幅提升了。

如果AI是这个时代的核心驱动力,那么数据中心就是它的心脏。2026年初的数据显示了一个或许出乎意料的排名:

Google 是隐藏的王者。 虽然媒体报道最多的是微软和 Elon Musk 的 xAI,但Google在数据中心领域默默保持着领先地位。
更重要的是,Google的数据中心具有独特的技术特征:多中心协同。Jeff Dean 分享过,未来的 Gemini 将把全球的数据中心连接成一个巨大的网络,不同的中心承担不同的功能——就像人脑的不同区域负责视觉、听觉、推理一样。

这种架构的潜力是惊人的:它意味着 Google 的 AI 可以利用分布在全球(甚至太空)的算力资源,形成一个真正的"计算网络"。
在芯片领域,一场静默的战争正在进行。
英伟达阵营:微软、OpenAI、xAI —— 他们依赖英伟达的 GPU,受制于供应链和产能限制。
自研芯片阵营:Google(TPU)、亚马逊(Trainium)——他们不依赖英伟达,只需要台积电的代工能力。

这场战争的意义深远。Anthropic 原本部署在亚马逊的芯片上,但 2026 年开始,它采购了 100 万颗 Google TPU 来自建数据中心。这是一个信号:芯片的多元化正在发生,英伟达的垄断地位面临真正的挑战。
值得注意的是,英伟达的优势不仅在于 GPU 设计,更在于它提供的是一整套"AI工厂"的蓝图——从芯片到软件到系统架构。正如黄仁勋所说,英伟达给客户的不是毛坯房,而是一套完整的解决方案。
但 Google 的 TPU 有它自己的优势:不受英伟达产能限制,可以根据自己的模型需求定制优化,而且随着规模扩大,成本效率可能超过通用 GPU。
所有主要玩家都在朝着一个目标冲刺:1吉瓦(GW)级别的数据中心。

目前,还没有一家完全达到这个里程碑。但 xAI 的 Colossus 已经非常接近——预计2026 年中将达到 1.4GW。Elon Musk 以他一贯的风格,在数据中心的 logo 上印了"Microhard"(微软的反义词),宣称未来 Microsoft 能做的一切,AI 都能做。
传统软件巨头的价值,正在被 AI 重新定义。

一个有趣的地理现象:AI 数据中心主要分布在美国中部和东部,西海岸反而很少。原因是AI数据中心不需要靠近用户(它主要做计算而非网络传输),它需要的是廉价的能源 —— 天然气、太阳能、核能。这是算力时代的新地缘政治。
要在 AI 时代做出正确的决策,我们需要一个新的思考框架。
这个框架的灵感来自英国物理学家、量子计算先驱 David Deutsch 的著作《无穷的开始》(The Beginning of Infinity)。他提出了一组颠覆性的观点:
问题不可避免,但问题可以解决。

这听起来像是鸡汤,但它背后有严肃的哲学基础:
这是 Elon Musk 信奉的"第一性原理"的哲学根基:只要物理定律允许,就一定有办法实现。
结合布罗代尔的历史观和 Deutsch 的知识观,我们可以构建一个理解世界的四层模型:

第零层:物理定律(永恒不变)
这是宇宙的终极底座——光速、热力学定律、量子力学的基本原理。除非我们发现新的物理理论,否则这一层不可逾越。
有趣的是,1900年物理学家们说"我们头上有两朵乌云",指的是经典物理无法解释的两个问题。后来,这两朵乌云分别催生了量子力学和相对论,彻底改变了人类对宇宙的理解。
我们现在已经六七十年没有发现新的基础物理理论了。下一次突破在哪里?或许,AI会帮我们找到答案。
第一层:知识层(数十年到数百年)
这一层包含我们对世界的"好的解释"——科学理论、数学定理、哲学范式。一旦发现,这些知识就成为人类永久的资产,除非被更好的解释所取代。
牛顿力学统治了两百年,直到被相对论取代。这就是知识层演化的速度——缓慢但深刻。
第二层:制度与结构层(数十年)
人口、能源、基础设施、政治制度、经济体系——这些是"中时段"的变量,变化周期大约是五六十年(与康波周期吻合)。

AI 正在深刻地重塑这一层。当算力成为基础设施,当数据成为战略资源,整个社会的制度和结构都将随之改变。
第三层:事件层(日、月、年)
这是我们每天接触的层面——新闻、产品发布、政策调整、市场波动。绝大多数都是噪音,但偶尔会触发"相变"——导致更深层次的变化。
我们要做的,就是在事件层的海量噪音中识别出真正的信号 —— 那些能够改变结构层甚至知识层的关键变量。
AI 的革命性在于:它加速了结构性变化的频率。

过去,一个结构性机会可能需要等待几十年才会出现。但在 AI 时代,这种机会可能每隔几年甚至更短的时间就会涌现。
更激进的可能性是:AI 可能帮助我们在知识层取得突破。如果AI能够发现新的物理定律或数学定理,那将是人类文明的一次质变——就像量子力学催生了整个信息时代一样。
这就是为什么 xAI 和 Gemini 都把"理解宇宙"定为终极目标。他们追求的不是更好的聊天机器人,而是能够独立进行科学发现的智能系统。
DeepMind 的创始人 Demis Hassabis 提出了一个大胆的哲学立场:宇宙中不存在不可计算的事物。
大脑是可以计算的,物理世界是可以计算的,一切本质上都可以用图灵机来模拟。这不是比喻,而是一个关于现实本质的陈述。
更激进的假设来自 MIT 物理学家 Max Tegmark:物理学的基本单位可能不是能量和物质,而是信息。 宇宙的底层可能就是数学结构——我们观察到的物质世界只是信息模式的涌现。
如果这些假设是正确的,那么构建足够强大的AI来理解和模拟宇宙就不是科幻,而是原则上可实现的目标。
这里涉及一个关键的数学概念:低维流形(Lower Dimensional Manifold)。
想象一下,一张纸被揉成了一个复杂的 3D 球体。原本简单的 2D 平面变成了看似杂乱无章的形状。但如果你知道折叠的规律,你就可以把它展开,恢复原本清晰的结构。

这就是 AI 在做的事情。
高维空间是一个充满噪音的混乱世界——想想所有可能的蛋白质结构,或者所有可能的物理过程。传统方法需要在这个巨大的空间中暴力搜索,效率极低。
但神经网络可以学习到这个空间中隐藏的"捷径"——低维流形。它发现,虽然可能性是无限的,但真正有意义的解其实集中在一个低维度的子空间里。
AlphaFold 就是一个绝佳的例子。蛋白质折叠是一个理论上需要天文数字时间才能解决的问题,但 AlphaFold 通过学习基因序列和蛋白质结构之间的映射关系,找到了一条"捷径",可以直接预测出折叠后的形状。
这与物理学的发展有着惊人的相似:牛顿的万有引力公式、爱因斯坦的相对论,本质上都是对自然界无限复杂性的"压缩" —— 用简洁的数学表达捕捉深层规律。
未来的科学可能不再是推导公式,而是用神经网络直接"学习"出自然规律的流形。公式是一种形式,神经网络是另一种形式——目的都是压缩信息,发现结构。
在 Demis Hassabis 看来,AI 最大的价值不是写代码或聊天,而是攻克那些能够产生巨大下游效益的"根节点问题":

一旦这些根节点问题被攻克,整个人类文明将进入新的阶段。Google 已经在用Gemini 为量子计算研究机构提供纠错服务 —— 这是 AI 与物理前沿结合的早期实践。
一个让很多创业者不愿面对的事实:AI 的 toC(面向消费者)市场窗口正在快速收窄。
SimilarWeb 的数据显示,2025 年全年,除了音视频生成之外,几乎所有 AI 垂直应用的流量都在下滑。用户正在向"什么都能做"的通用模型(ChatGPT、Gemini、Grok)集中。

这意味着什么?
模型公司正在吃掉应用层的空间。 当 ChatGPT 可以写作、编程、分析、画图、做视频,用户为什么还需要十几个专用工具?
对于t oC 创业者来说,出路只有两条:
Manus 被收购是一个信号。这家曾经独立的 Agent 公司,最终选择加入更大的团队。这不是失败,而是在正确的时机做出的理性选择。
toC 市场在萎缩,但 toB(面向企业)市场却在快速增长。
来自Menlo Park的数据显示了企业AI支出的分布:

代码是 AI 的第一个杀手级应用,没有之一。
这解释了为什么 Anthropic 选择专注于 Coding 和 Agentic 方向。它不是要做一个更好的 ChatGPT,而是要成为"新时代的 Microsoft Office + AWS" —— 企业工作流程的核心基础设施。
toC 和 toB 的本质区别在于:
这也是为什么 OpenAI 在 2026 年要收缩战线、专注企业市场 —— 它不得不应对来自 Anthropic 和 Google 的夹击。

一份最新的研究报告揭示了一个值得所有人关注的趋势:去技能化(De-skilling)。
当 AI 接管某些任务后,留给人类的工作所需的技能水平下降了。
举几个例子:
更令人深思的数据是:AI 的能力集中在需要 14 年以上教育程度的工作,尤其在 16-18 年教育程度(大学、研究生、博士)的任务上表现最为突出。

换句话说:AI 首先取代的不是蓝领,而是白领;不是简单劳动,而是复杂认知。
中层认知任务正在"中空化"——被 AI 完全接管。人类的价值正在向两端迁移:
一端是底层执行——需要在物理世界完成的动作(送货、打印、物理服务) 另一端是顶层判断——定义问题、验证结果、做出价值判断
中间的分析、研究、写作、计算?AI 来做。

这对每个人的职业规划都是一个严峻的挑战:你是否在向两端移动?
AI 要真正改变世界,必须走出数字空间,进入物理现实。

英伟达勾勒的蓝图包含三个关键步骤:

目前进展最快的是自动驾驶。Tesla 的 Robotaxi 已经在十几个城市获得许可,2026年预计将大规模普及。这是 AI 进入物理世界的第一个大规模应用。
机器人领域则更加复杂。
2026 年初 CES 展会上,人形机器人公司蜂拥而至 —— 其中绝大多数是中国公司。中国在机器人硬件供应链上的优势是碾压性的:传感器、电机、结构件、组装……整个产业链都在深圳周边。

但机器人的"大脑"——通用机器人控制模型——主要还在美国公司手中。Physical Intelligence(PI)、Skild AI、Google 的 VLA 模型……这些是让机器人能够泛化处理各种任务的核心技术。
一个有趣的格局正在形成:

Tesla 的 Optimus 是一个值得关注的变量。Elon Musk 的策略一贯是"先上场、后优化"——即使早期版本很粗糙,也要先进入真实环境收集数据,然后快速迭代。2026年,Optimus 预计将开始在 Tesla 工厂中正式工作。
但总体而言,人形机器人还处于"GPT-2 时代"——离"ChatGPT 时刻"还有几年的距离。泡沫化会加剧,但真正的突破也在酝酿中。
a16z(Andreessen Horowitz)最近发表了一篇深刻的文章:万物皆是计算机。
现代科技已经收敛到同一种形态:智能手机或电脑被无限次翻转、缩放,应用到每一个领域。电动汽车是一台大号计算机,无人机是会飞的计算机,智能手表是手腕上的计算机……
这解释了为什么深圳如此重要。任何与电子设备相关的产品,全球最好的供应链都在那里。

一张清晰的产业链图景:
顶层(品牌与设计):主要由美国公司主导——Apple、Tesla、Nvidia
中层(模块与子系统):中国绝对主导——从电池模组到传感器到电机控制
底层(原材料):分布在全球各地
中间层是关键。 谁掌握了把原材料变成复杂系统的"魔法",谁就掌握了进化的速度。这就是小米能够造车而福特不能做手机的原因——产业链的纵深决定了创新的速度。
这也是美国最担心的地方:未来的战争不是钢铁对钢铁,而是芯片、频谱和算法的较量。 而在这场较量中,硬件供应链的控制权至关重要。
AI 加速科学研究有两条主要路径:

路径一:模拟自然

用神经网络学习自然界的规律,从数据中提取"低维流形"。AlphaFold是 典型例子:它不是通过物理模拟来预测蛋白质结构,而是通过学习基因序列与结构之间的映射关系直接"猜"出答案。

这条路径的关键挑战是:如何生成足够多、足够好的训练数据?量子计算可能是一个答案——用量子系统生成经典计算难以模拟的数据,然后用神经网络学习这些数据中的模式。
路径二:模拟科研过程

让 AI 参与科研的全流程:文献综述、假设生成、实验设计、数据分析、结论提炼。人类从"做事"变成"指导"和"验证"。
这条路径的天花板更高,但挑战也更大——科研中最关键的往往是那些无法明确表述的"直觉"和"洞察"。
一个经常被忽视的事实:科学研究的最终瓶颈是物理世界中的实验。

AI 可以加速假设生成、加速数据分析,但它无法加速药物在人体中的代谢过程。临床试验需要五到十年,这是物理定律决定的,AI 改变不了。
这意味着:
但在某些领域——比如材料科学——AI + 高通量实验的组合可能带来革命性的加速。你可以用AI设计材料配方,然后用自动化实验平台快速测试,形成闭环。
2026 年最激动人心的预测之一是:AI 可能完成第一项真正有意义的独立科学发现。
这不是说 AI 写出了一篇论文,而是说 AI 从提出假设、设计实验、分析数据到得出结论,全流程独立完成,并且发现了人类此前不知道的规律。
如果这真的发生,将标志着科学研究范式的根本性转变——从"人类发现知识"到"人机协作发现知识"乃至"AI主导发现知识"。

基于对趋势的分析,以下是对 2026 年的一些预测:

持续学习将取得突破
模型将开始具备在真实环境中自我进化的能力。这不是完全的AGI,但它意味着模型可以在特定领域实现"部署-学习-改进"的闭环,而不需要重新训练。

Agent 商业化元年
AI智能体带来的广告支出将超过50亿美元。超过5%的零售电商将支持"Agentic Checkout"——AI自动完成购买决策和下单流程。
大模型竞争格局分化
游戏领域将出现爆款
一款AI实时生成的游戏将在视频平台引爆流量。xAI 的 Game Studio 预计将宣布新产品计划。
Robotaxi 规模化落地
Tesla 的无人出租车将在更多城市运营。Optimus 将开始在工厂中正式工作。
人形机器人泡沫化加剧
中国的人形机器人公司实在太多了。泡沫不可避免,但洗牌之后会留下真正有价值的玩家。
网络安全危机
一场由 AI 智能体驱动的网络攻击可能引发北约或联合国的首次紧急会议。AI的攻防博弈将进入新阶段。
AI 主权外交
大部分国家无法开发自己的主权AI。"AI 中立"将成为一种新的外交原则——类似于核武器中立。欧盟、加拿大等国家会寻求分散数字生态的风险,不把所有鸡蛋放在美国一个篮子里。
硅谷的"鸡汤大师" Naval Ravikant 说过一句深刻的话:
记忆的价值正在贬值。有了大语言模型,你还要记什么东西?一问就好了。但判断力和品味,更加重要了。
没有人会因为你记忆力好而表扬你。人们记住你,是因为你有品味、你会做选择、你能产出有价值的东西。
这意味着:学习技巧的边际收益在下降,而提升判断力的边际收益在上升。
网上到处都是教技巧的内容——今天学这个工具,明天学那个方法。但技巧本身不创造价值。价值来自于把技巧用在正确的事情上,交付实际的结果。
2024年,"Brain Rot"(脑腐)成为英国某机构评选的年度词汇。
短视频和碎片化信息会削弱人的注意力。那些被设计来"最大化用户参与度"的内容,本质上就是垃圾数据——它们让你停留,但不让你思考。
更可怕的是:研究发现,用这类碎片化内容训练的语言模型也会"变傻"——它们会放弃深度思考,倾向于给出肤浅的回答。
如果 AI 都会因为垃圾数据而"脑腐",人类的大脑更是如此。
你消费的信息质量决定了你认知的天花板。 精心管理你的信息摄入,就像控制饮食一样。
如何系统性地提升认知?这里有一个"认知飞轮"的框架:

第一步:控制信息质量

高信噪比的来源:
低质量的噪音:
第二步:抽象与内化

信息不等于知识。真正的学习发生在对信息的加工、抽象和连接过程中。
人类记忆不好不是Bug,而是Feature——它逼迫我们提取本质、建立框架。智慧不是记住了多少信息,而是能在不同层级之间建立快速连接的能力——直觉就是这些捷径的涌现。
第三步:输出即学习

把你学到的东西讲给别人听。如果你讲不清楚,说明你还没真正理解。
输出不一定要写长文或做视频。在社交网络上分享想法、在社群里讨论问题,都是输出。关键是:把思考外化,接受反馈,暴露盲区。
第四步:形成闭环
用认知指导行动,用行动检验认知。投资是最直接的检验方式——市场会毫不留情地告诉你,你的认知是否正确。
但也要记住:你只能赚到认知范围内的钱。 超出认知的钱,大概率会赔掉。
这是一个简单但经常被忽视的道理:
大脑不在乎你的意图,它只在乎你的重复。

你天天想着要学编程,但从来不写代码——大脑记住的是"不写代码"这个行为。你天天学习各种技巧,但从来不实际应用——大脑记住的是"只学不做"这个模式。
你最终成为什么样的人,不由你的想法决定,而由你反复做的事情决定。
所以,与其在"完美准备"中消耗时间,不如先开始做,在做的过程中学习和调整。
有一句话经常被引用:
悲观者永远正确,乐观者永远成功。
悲观者总能找到不行的理由——这个会失败、那个有风险、市场会崩盘……从统计学上看,他们经常是对的,因为大多数尝试确实会失败。
但正是那些相信"问题可以解决"的乐观者,在推动世界前进。
成为乐观者不是盲目乐观,而是在理解了风险和困难之后,依然相信未来是可以被创造的,并且愿意采取行动。


在 AI 时代,以下三种能力将变得至关重要:
分发级杠杆
你能触达多少人?你的内容、产品、服务能被多少人看到?在注意力稀缺的时代,分发能力就是财富放大器。
品位级战略
在AI可以生成海量内容的时代,品味成为最稀缺的资源。什么值得做、什么值得分享、什么值得投资——这些判断无法被自动化。
AI 级基础设施
你是否掌握了使用AI的技能?你是否把AI融入了自己的工作流程?这不是要成为AI专家,而是要让AI成为你的"外挂大脑"。
AI 并非无所不能。当前最大的瓶颈不是技术,而是社会:
组织结构是 AI 进入企业的最大障碍。

企业的中层管理结构天然抵制AI —— 因为 AI 最先取代的就是他们的工作。这需要自上而下的变革,需要 CEO 和 CAIO(首席AI官)联手推动组织重构。
界面控制价值分配。
谁控制用户界面,谁就控制价值流向。Google拼命做Agent、做深度搜索,就是为了延续它对界面的控制。苹果的Siri要引入Gemini,说明它在AI界面竞争中落后了。
真实性溢价。
在AI生成内容泛滥的时代,"真实的人"变成了稀缺资源。真人直播、真人社群、真人叙事——这些创造的是信任和连接,是AI难以复制的价值。
一个明确的趋势是:创作者经济将成为结构性机遇。

当 AI 降低了内容生产的门槛,真正稀缺的不再是制作能力,而是独特的视角、持续的输出、和受众的信任关系。
每个人都应该考虑:我能不能成为一个"分享者"?我能不能把我的专业知识、独特视角、思考过程分享出来,建立自己的受众群体?
这不是要每个人都当网红,而是说:在AI时代,"个人品牌"的价值会大幅提升。 你的名字、你的声音、你的判断,可能比你的具体技能更有价值。

回到文章开头布罗代尔的那个比喻:我们都是深层结构的囚徒。
地理塑造了人类文明的基本格局,技术革命塑造了几十年的经济周期,制度和文化塑造了社会的运作方式。作为个体,我们很难逃脱这些力量的支配。
但 AI 带来的变革,正在动摇这些结构。
算力成为新的基础设施。数据成为新的石油。代码成为新的语言。智能成为新的分配方式。
在这场变革中,我们既是被裹挟的对象,也是有能力施加影响的参与者。
关键是:你选择站在哪里?
你可以被动地等待变化发生,看着自己的技能贬值、工作被取代、认知被淘汰。
你也可以主动地拥抱变化——学习如何与AI协作,提升自己的判断力和品味,在新的结构中找到自己的位置。
正如 David Deutsch 所说:问题不可避免,但问题可以解决。未来是开放的,知识可以改变一切——只要我们愿意创造它。
这是乐观主义者的宣言,也是这个时代最重要的行动指南。
欢迎来到 2026。 欢迎来到万物皆计算的时代。 欢迎来到无穷的开始。

本文基于 Indigo 2026 新年直播内容整理创作,力求在完整还原原始分享的基础上,提供更清晰的逻辑结构和更深入的延展分析。
2025-12-30 14:46:29

大多数人的职业生涯是这样的:上学、工作、被社会捶打、磨平棱角,最后变得圆滑世故,却失去了光泽。本质上,这是一种放弃希望的状态。为什么我还在"折腾"?核心动力只有三个字:好奇心。在生物学和计算机科学中,好奇心不仅仅是一种情绪,它是一种生存策略。
在这个剧烈变化的时代,“经验”往往会成为负资产,因为过往的经验只能解释旧世界。唯有保持像孩童般的好奇心,不断试错,才能防止自己变成一个“爹味很重”的过时者。两周前,我在播客节目"螺旋下降"中聊到了"好奇心"的重要性,以及好运框架、决策本质和认知飞轮这些有趣的话题。特此总结成文,作为即将到来的 2026 新年问候,分享给大家✨
成功往往取决于运气。但好运并非偶然,正如 Karla Starr 在《好运方程式》中所说,它可以被"设计"出来。Naval 在节目中也常提到提升运气的方法。基于此,我总结了一个可操作的"好运层级"框架。

决策不是孤立的行为,而是认知的自然延伸。当一个人对事物的本质有足够透彻的理解时,决策就不再需要纠结,反而会成为显而易见的必然结果。

举个真实的例子:2009 年,新浪处于生死存亡的边缘。门户网站式微,社交网络兴起。新浪决定背水一战,进行管理层收购(MBO),新浪微博由此诞生。当时并没有"完美的商业计划书",有的只是"模糊的正确"。我所在的创始团队在前半年的尝试中看到了增长势头,随即决定 All-in。当你在模糊中捕捉到大趋势的影子,哪怕只验证了一点点可行性,也不要犹豫 —— 要敢于下注。
对谈中,我分享了一套完整的“输入-内化-输出-变现”的正向循环系统,也就是文章标题里的“认知飞轮”!
第一步:高质量的信息输入(筛选与清洗)

第二步:深度的内化与抽象(压缩)

第三步:强制性的输出(费曼学习法)

第四步:认知变现与反哺(闭环)
这个认知飞轮是一个“以好奇心为原动力,通过高质量输入和强制输出提升认知,最终通过投资实现变现,再将资源投入新一轮学习”的无限游戏。在这个系统中,认知是核心资产,决策是资产的变现方式。

我们正处在“技术变革的前夜”。你可以隐约看到光,但大部分人还沉睡在黑暗中。在这个阶段,悲观者往往看起来很正确(因为问题确实很多),但乐观者往往能成功。就像我自己所践行的那样:保持好奇,去往能量密度最高的地方,建立自己的认知体系,然后毫不犹豫地跳进这滚滚而来的时代洪流中。

因为再好的 AI 都只能帮你计算,但只有你自己,能决定计算的方向。
2026 新年快乐🎉
2025-12-26 12:27:55

当 AI 的进化速度超越了人类的认知刷新率,我们该如何在信息洪流中安身立命?本期 Indigo Talk 邀请了腾讯研究院的晓辉博士与思彦,汇集投资、技术与个人成长三大视角,呈现了一场关于 AI 时代的四重深度思辨。如何用“分形心法”构建认知的护城河?当 AI Agent 遭遇复杂的组织政治,会催生哪些全新的“职场物种”?在中美“软硬分流”的产业格局下,普通人如何找到自己的生态位?从驾驭信息到定义生活,让我们一起重构与 AI 的关系。
Apple Podcast & Spotify 播客 | 小宇宙播客
当 AI 的进化速度超越了人类的认知刷新率,我们该如何在信息洪流中安身立命?
这不是一个关于“工具好不好用”的浅层讨论,而是一场关于个体命运、产业格局与人类本质的深度省思。在 Indigo Talk 第 39 期中,邀请了腾讯研究院的晓辉博士与思彦,汇集投资、技术与个人成长三大视角,试图拨开算法的迷雾,为 2026 年甚至更远的未来寻找一份生存行动纲领。
这场对话的核心,在于“重构” —— 重构我们与信息的关系、重构我们在组织中的位置、重构全球创新的版图,以及最终,重构我们作为人类的体验。
核心观点:缓解 AI 焦虑的关键,不是减少输入,而是建立像投资组合一样的“多维度注意力机制”。

在信息爆炸的时代,“错失恐惧症”(FOMO)几乎成为了每个科技从业者的职业病。面对每天涌现的数以千计的新论文和新模型,我们该如何自处?晓辉博士提供了一个极其硬核的解决方案——“人肉 AI 训练法”。她坚持在下班后通过无提词器、一镜到底的方式录制技术解读视频。这本质上是在强迫大脑像生成式模型一样,先对海量输入进行高强度的压缩与消化,再进行结构化的输出。以输出倒逼输入,是将被动的信息流转化为主动认知的唯一路径。
更深层的解法,来自思彦提出的“认知分形(Fractal)”理论 。正如金融市场的 K 线图包含日线、周线和年线,我们的信息处理也应建立不同的时间尺度:
这种“分形”结构让我们在享受碎片化信息带来的多巴胺的同时,拥有对抗焦虑的“压舱石”。真正的长期主义者,并不是不看短期波动,而是懂得在不同尺度上从容切换。
核心观点:AI 对工作的重塑将从“任务执行”转向“组织重构”。未来企业急需的不是会写 Prompt 的人,而是懂“语境部署”的架构师。

2025 年,AI Agent(智能体)的落地远比预想中艰难。为什么 AI 代码写得好,却无法胜任企业的复杂工作流?Indigo 指出,瓶颈不在于技术,而在于组织政治与隐性知识 。企业内部充满了大量未被数字化的潜规则、人情世故和非结构化的业务逻辑(SOP),这些是目前的 Agent 无法理解的“黑箱”。
因此,未来职场将诞生两类全新的核心物种,彻底取代中间层的执行者:
未来的组织,将不再是“人指挥人”,而是“人定义语境,AI 执行任务,人验收结果”的新型协作体。
核心观点:中美 AI 正在驶向不同的星辰大海。美国在资本与 SaaS 的飞轮中狂奔,中国则在政策与制造的结合中寻找务实的窄门。

透过腾讯研究院的宏观视角,我们看到了中美 AI 产业路径的本质分歧,这是一种“软硬分流” 。
更有趣的是,中国 AI 应用正在展现出一种独特的“夹缝求生”智慧:要么深耕极度细分且务实的本土场景(如艺考培训、民航调度);要么像 Genspark、Manus 一样,带着中国的工程师红利直接出海,去赚取美金收入 。
核心观点:AI 的终极形态不是工具,而是 LifeOS(生活操作系统)。它正在重塑我们的情感连接,甚至比人类更懂得“如何做父母”。

当知识获取的门槛被 AI 夷为平地,教育的意义何在?思彦提出了一个发人深省的观点:未来的学校将不再是知识的灌输所,而是回归“社区(Community)”的本质 。学校将侧重于激发好奇心、培养人际互动能力,以及提供 AI 无法替代的真实物理连接。
而在情感层面,AI 正在发生一场更为隐秘的革命。对于经常被忽视情绪需求的东亚家庭而言,AI 可能正在成为比父母更好的“情感抚养者”。它能够无评判地接纳、精准地描述并反馈用户的情绪,提供一种宝贵的“被看见”的感觉 。这种轻量级的心理疏导,正在填补心理疾病与心理健康之间的巨大空白 。
对于 10 后这一代“AI 原生民”,他们已经跳过了搜索引擎,习惯直接与智能对话获取答案 。在这个时代,人类最后且唯一的特权,或许只剩下好奇心 —— 因为 AI 可以回答一切问题,但只有人类能提出那个最初的问题。
结语
AI 革命的核心,并非是机器简单地替代人类,而是要求我们重新定义与信息、工作、乃至自我的关系。在这个算力无限的时代,我们的终极目标不是让自己变得像机器一样高效,而是释放大脑的带宽,去进行更宏观、更长周期、更具分形美感的思考,做回那个定义生活的人 。
2025-11-25 12:39:25

万亿薪酬不仅仅是金钱奖励,更是 Elon Musk 的“通关”诱饵!本期 Indigo Talk 联手 Leo(CyberCat),深度复盘特斯拉股东大会。我们将拆解特斯拉宏大的“可持续丰裕”愿景,从 FSD 与 RoboTaxi 的商业机会 ,到 AI5 芯片的垂直整合 ;当 Optimus 真正带来物质极度丰裕时,人类会陷入“第 25 号宇宙”实验中那样的虚无与消亡吗?欢迎收听支持干货满满的复盘对谈!
Apple Podcast & Spotify 播客 | 小宇宙播客
Leo(CyberCat)
Indigo(数字镜像博主)
Elon Musk 这样顶级创新者的驱动力不再是“边际效用递减”的财富,而是“通关难度递增”的游戏快感
启示一:管理顶级人才(或你自己),不要给安稳的赏赐,要给绝望的挑战;
一项颠覆性技术的普及速度,往往不取决于技术本身的成熟度,而取决于旧制度与其利益解绑的速度。
启示二:在投资或创业时,不仅要看技术是否Work,更要看谁在靠“旧技术的缺陷”赚钱,那才是最大的阻力;
真正的变革总是伴随着“期望”与“现实”的时间错位
启示三:在科技投资中,最大的套利空间存在于“叙事崩塌”之后与“大规模部署”之前的那段静默期;
垂直整合不是为了“利润最大化”,而是为了“命运自主化”
启示四:真正的护城河不是品牌,而是对关键稀缺资源的物理掌控权;
人类社会的结构是由“匮乏”支撑的;当“匮乏”消失,意义的脚手架也会随之坍塌
如果“生存”不再需要努力,人类将面临前所未有的虚无主义危机。仅仅依靠“消费”(吃喝玩乐/奶头乐)无法填补这种真空;唯一的解药是将文明的驱动力从“生存”切换为“探索”和“创造”!当AI接管了效率,人类剩下的唯一特权是“低效”的艺术与叙事(Storytelling)✨
终极启示:未来的阶层分化,将不再基于物质财富的多少,而基于“叙事能力”和“创造意义”能力的强弱!
引言:当信仰充值遇上市场动荡
在一个股市剧烈震荡、投资人情绪在贪婪与恐惧间摇摆的时刻,Indigo Talk 再次邀请到了资深特斯拉投资Leo(CyberCat)回归,Leo 在 X 上运营了一个最大的特斯拉(Tesla)华语投资人社群。这次对谈,并不是一次简单的股东大会复盘,而是一场关于科技、人性与未来社会形态的深度拆解。
话题的起点是刚刚结束的 2024 年度特斯拉股东大会 —— 一场被外界视为“马斯克薪酬保卫战”的会议,但在这场喧嚣背后,真正值得关注的是特斯拉正在书写的“新篇章”(New Chapter)。这不仅关乎一家车企的转型,更关乎人类社会是否做好了迎接“物质极度丰裕”时代的准备。
2024 年的特斯拉股东大会,最吸睛的无疑是马斯克那份高达万亿美元的薪酬方案以 75% 的高票通过。外界对此众说纷纭,有人惊叹于粉丝的狂热,有人质疑董事会的独立性。但在 Leo 看来,这背后的逻辑远比“钱”要复杂。
游戏化的人生:马斯克需要“Boss 战”
马斯克是一个典型的“爽剧男主角”性格。对他而言,金钱本身早已失去了边际效用。真正能驱动他全身心投入的,是“不可能完成的任务”。
这份薪酬计划设立了极高的市值目标(8.5万亿美元)和极其具体的业务里程碑(FSD订阅、Robotaxi 落地、Optimus 交付等)。这就像给一个游戏瘾少年设计了一个超高难度的关卡。如果没有这个“胡萝卜”吊在前面,马斯克可能会把精力分散到 SpaceX、xAI 甚至政治口水战上。通过这个方案,股东们实际上是在“锁定”马斯克未来十年的注意力,让他把这一轮通关游戏玩到底。
“特斯拉士兵”:一种罕见的股东文化
现场的气氛与其说是严肃的股东大会,不如说是一场“偶像见面会”。许多散户不仅仅是投资者,更是“特斯拉士兵”(Tesla Soldier)。他们卖房卖车、All-in 特斯拉,这种将个人命运与公司愿景深度捆绑的现象,在商业史上除了乔布斯时代的苹果,几乎绝无仅有。这种近乎宗教般的凝聚力,是特斯拉在面对华尔街做空和媒体围剿时最坚固的护城河。
如果说以前特斯拉的目标是“加速世界向可持续能源转变”,那么这次大会揭示的愿景则上升到了文明的高度:可持续的丰裕(Sustainable Abundance)。
两个自动化的终极形态
马斯克在 Master Plan Part 4 中描绘的未来建立在两个核心支柱上:
物质乌托邦
这是一个类似“大同社会”的构想。当能源取之不尽(光伏 + 储能),劳动成本趋近于零(机器人 + AI),人类将彻底摆脱资源的稀缺性束缚。在这个愿景中,特斯拉不再是一家卖车的公司,而是构建这个新世界基础设施的承包商。
然而,宏大叙事需要脚踏实地的交付。对于投资者而言,这依然是一张大饼,直到 Robotaxi 真正大规模上路的那一天。
愿景很美,但现实是残酷的。目前特斯拉最核心的挑战在于:如何让 FSD(全自动驾驶)从“极客玩具”变成“大众必需品”。
技术奇点已至
FSD 从 V12 到 V13、V14 的迭代,标志着自动驾驶技术的质变。前特斯拉 AI 总监 Andrej Karpathy 在体验后甚至激动地发推表示,这就像坐上了“磁悬浮列车”,软件 2.0(端到端神经网络)终于完全取代了人类编写的代码。技术已经不再是最大的瓶颈,安全性正在逼近甚至超越人类司机。
为什么只有 12% 的人订阅?
尽管技术突飞猛进,但数据显示,北美地区的 FSD 订阅/购买率仅为 12% 左右 10。这是一个极低的数字。为什么?
Leo 指出,保险成本是阻碍 FSD 普及的最大痛点。
对于年轻用户,特斯拉的保险费可能高达每月 400-500 美元,这直接劝退了潜在买家。
逻辑悖论: 马斯克宣称 FSD 极度安全,但在传统保险公司眼里,这只是一个未经验证的风险。即便你开了 FSD 降低了事故率,传统保险公司也不会因此给你降保费。既然不能省钱,用户为什么要花 99 美元/月去订阅 FSD?
破局之道: 必须建立“FSD 使用率与保费挂钩”的机制。如果你开 FSD,保费就应该立减 100 美元。这需要像 Lemonade 这样具有创新基因的保险公司来搅局,或者特斯拉进一步强化自营保险。只有当“更安全 = 更省钱”的商业闭环形成,FSD 的订阅率才会迎来爆发。
在被问及芯片与算力时,马斯克展现了他一贯的“第一性原理”思维。他在财报会上反复提到:“未来真正的瓶颈不再是电池,不再是工厂,而是算力和芯片。”
为什么要自己造芯片?
就像乔布斯晚年痛恨受制于英特尔,最终苹果自研 M 系列芯片一样,马斯克也深知不能让芯片成为特斯拉的“限速因子”(Rate Limiting Factor)。
未来的世界,如果每人需要一辆 Robotaxi,每家需要一个 Optimus,这意味着数十亿级别的 AI 终端需求。依赖英伟达不仅成本高昂,而且产能受制于人。
AI5 的减法艺术
特斯拉的 AI5 芯片设计非常有意思,它砍掉了大量不必要的浮点运算功能,专注于整数运算。这是因为在推理现实世界的视觉数据时,并不需要科学计算那样的高精度。这种针对特定场景的极致优化,让特斯拉能以更低的能耗和成本实现大规模推理。
特斯拉正在成为物理世界的苹果:从锂矿开采、电池制造、芯片设计到软件算法,实现了前所未有的垂直整合能力。
面对近期股市的杀跌和 AI 板块的去杠杆,Leo 和 Indigo 分享了他们的投资心法。
钟摆效应
Leo 提到了一个在投资圈非常经典的比喻——
Howard Marks 的“钟摆理论”:
投资者的情绪,就像一个钟摆。它很少待在中间“理性”的位置,大部分时间都在:极度乐观 / 贪婪到极度悲观 / 恐惧之间来回摆动。
这和我们所处的宏观现实叠在一起,会变得格外明显:川普上台→减税→美国企业盈利短期爆发,市场情绪极度兴奋。后面贸易战、关税、地缘冲突 … 一轮轮冲击,让情绪不断被翻搅。
特斯拉股价这几年,就是这种“钟摆运动”的典型样本:一度被炒到仿佛“要吞掉整个汽车行业”的高度;又在利率上行、竞品出现、马斯克本人争议增加时,被砸到“好像什么都不行”。
对长期投资者来说,最难的是:在情绪最极端的时候,认识到这只是“钟摆摆到一端”;在“恐惧”和“嘲笑”最多的时候,冷静判断:“公司基本盘是否还在?长期叙事有没有破?”
当所有人都对 Figma、稳定币等新概念趋之若鹜时,往往意味着风险的临近。
短期高估,长期低估
这是科技投资的铁律。人们总是高估技术在 1-2 年内的变革能力(例如期待 Robotaxi 明年就满大街跑),却严重低估它在 10 年维度的颠覆性。
寻找“限速因子”
真正的高手像马斯克一样思考:现在的瓶颈在哪里?是算力?是电力?还是保险?提前布局那些解决瓶颈的领域,往往能获得超额回报。
文章的最后,我们触及了一个略带沉重但必须面对的哲学命题。
当“可持续的丰裕”真正实现,人类将何去何从?
Indigo 提到了著名的“第25号宇宙”(老鼠乌托邦)实验。当老鼠拥有了无尽的食物和完美的住所,不需要任何竞争和努力时,社会结构反而瓦解了。老鼠们停止了社交,停止了繁衍,最终群体走向灭绝。
躺平与少子化的预演
现在的社会已经初现端倪。年轻一代面对未来的不确定性,选择“奶头乐”(短视频、游戏)和低欲望生活,生育率不断下降。这正是马斯克最担心的事情 —— 人类在富足到来之前,先因为丧失信心而自我消亡。
寻找新的“西西弗斯巨石”
如果生存不再是挑战,人类必须寻找新的意义支点。
向外探索: 这就是为什么 SpaceX 的火星计划如此重要。它不仅仅是移民,更是给人类提供一个新的“边疆”,一个需要奋斗和冒险的宏大目标。
向内创造: 艺术、文化、故事讲述(Storytelling)将成为稀缺资源。当 AI 能生成一切画面时,人类独特的审美和叙事能力将决定新的社会阶层。
最后对谈虽然没有给出“宏大的人类方案”,但对个体来说,隐约勾勒出三条值得思考的路径:
1. 认知与技能:把自己变成“人机协同体”
纯粹和 AI 竞争“算力”和“记忆”,人类一定会输;但人机协同——把自己当成一个“有身体 + 情感 + 上下文理解”的节点,与 AI 配合——却是巨大的机会。
个体可以认真思考:我在哪些领域可以用 AI 强化我的判断和创造力?我怎样设计自己的工作流,让 AI 做“重、快、重复”的部分,我做“抽象、连接、判断”的部分?
这不是一句鸡汤,而是一个非常实际的生存策略:在一个 FSD、Optimus、AI 无处不在的世界里,你要么成为使用它们的“导演”,要么成为被取代的“临时演员”。
2. 情绪与信念:意识到“钟摆”和“信仰”的作用
在投资层面,Leo 提到了“信仰”这个词 —— 很多特斯拉股东在大跌中所谓的“信仰充值”。如果把“信仰”翻译成更冷静的说法,就是:对长期叙事的深度理解;对短期情绪波动的心理预备。
换句话说:你要在情绪钟摆摆到极端的时候,提前知道“这只是钟摆,而不是世界末日”。这个能力不仅适用于买不买特斯拉股票,也适用于:你看待 AI 带来的岗位变化;你面对自动化取代、行业调整时的自我定位。
3. 结构与关系:在自动化世界里重建“连接感”
当机器人能送货、能护理、能干很多服务类工作时,人和人之间的“功能性关系”会减少。那人和人之间还剩什么?
对谈里虽然没有系统展开,但有几个很明确的线索:
这三条路径并不是“官方答案”,更像是从一场关于特斯拉、马斯克和 AI 的对谈里,自然流露出的个人生存建议。
我们正站在一个十字路口。左边是技术带来的物质极大丰富,右边是意义缺失导致的虚无主义深渊。特斯拉和马斯克正在疯狂加速将我们推向左边,但如何避免掉入右边的深渊,或许不仅需要马斯克的火箭,更需要每一个普通人重新思考:在这个即将被代码和算法接管的世界里,我们生而为人的独特价值究竟是什么?