2026-03-19 08:53:34

马斯克前几天在 X 上发帖承认,xAI 一开始建立的时候就错了。同样是在 AI 领域里翻了跟头,为什么只有马斯克敢于出来认错,而 Meta 和 Qwen 却要死鸭子嘴硬到最后?

马斯克公开发 X 承认,xAI 一开始构建的时候就是错的。这个帖子是 2026 年 3 月 12 日,马斯克在 X 上公开写的:xAI 第一次没搭对,现在要从地基开始重建。
此前,xAI 于 2026 年 2 月 2 日正式并入了 SpaceX,并于 2 月 10 日举行了并购后的首次全员大会。今天就来讲讲,马斯克又给大家表演了一次世界首富的行为艺术:他敢于承认自己玩错了,别人为什么不敢?

首先要讲 xAI 团队的大换血,从华人精英转向了硅谷“咖喱味”更重的情况。xAI 最一开始有 12 位联合创始人,现在仅剩两位了,这两位从名字上看应该都不是华人。华人的技术支柱基本都撤干净了。曾经任职于 OpenAI 和谷歌的核心华人成员,以及早期的 Jimmy Ba 和 Tony Wu 等人相继退出。
华人团队的退出,标志着 xAI 早期基于快速复制 OpenAI 的路径,基本宣告失败。马斯克对这件事的不满其实一直是公开的。马斯克坦言,xAI 在 AI 编程能力上落后于 Anthropic 的 Claude Code 以及 OpenAI 的 Codex。

这一点其实很多人一开始没有想到。原来大家总觉得,衡量 AI 的能力,是看它会不会做数学题,会不会解决人类难题。最后发现,真正比较 AI 能力的,反而是编程能力。
原因很简单,因为我们需要让 AI 自己去规划,自己去写各种边边角角的代码,自己去把整个项目跑起来。而只有编程能力足够好,AI 才可以进行自我迭代。
这里要注意,现在大家讲的 AI 自我迭代,其实已经开始了,但并不像很多人最初想象的那样:AI 通过不断吸收我们输入的信息,再去重新训练模型。不是这样的。
现在 AI 的自我迭代,是 AI 不断编码,把它的整个执行环境不断提升。比如 Claude Code、Codex,包括我们本机运行的环境,我们会不断形成新的代码、新的技能。像我们装在“龙虾”里的 AI,越来越聪明,它是这样工作的。
但如果编程能力不行,就没有办法做这套事情。
现在马斯克的意思是:第一步他没追上,第二步本来还想赶一赶,结果发现行业已经进入下一步了,这事就不行了。

一方面,有些人离开了,他也没办法,总不能真的把人捆在这儿。该走的总是要走。那他就只能针对性挖人。他从顶级 AI 编程工具 Cursor 那边挖核心负责人,挖了两个人。
很多人觉得 xAI 的 Grok 还挺好用,我自己其实用得很少。原因也简单,Grok 经常聊着聊着就变成英文了。对于英文不好的人来说,我还是希望输入中文、输出中文,不要每次都让我再说一句“你给我翻译成中文”。被它“羞辱”了几次以后,我就不用了。
马斯克并没有去讲,原来的模型、原来的系统到底好还是不好。其实肯定不好,如果原来的系统好,也不至于整个大换血。毕竟他前面已经讲了,一开始搭建就没搭建对。他对原来团队的评价是“高级复读机、白痴和养老院”。
可以想象,马斯克这个人一定是极其强势的,“这个要这样,那个要那样”,而且他是工程技术出身,不像很多职业经理人出身于金融、管理,对技术本身并不懂,需要通过另一套语言来沟通。马斯克自己懂技术,那怎么办?只能是他说什么,下面就干什么。
所以他会觉得下面这个团队是“高级复读机”:我说的事你们确实都干了,但没有任何新的东西出来。
另外一个评价是“白痴”,那说明肯定还有些事情是他说了以后,下边没做的。他绝对不会认为是自己说错了,只会认为你们这帮人是白痴。
再一个词叫“养老院”,我估计他说的是 Jimmy Ba。因为这人是加拿大那边的大学教授,天天写论文,在工程上的产出并不是很多。所以他用了比较极端的贬义词,去描述原来的团队。
不过目前主流媒体比如路透社,并没有拿到一手记录。因为这种话他肯定不会发到 X 上,多半是在内部会议里说的,然后有人透露出来,在社交媒体上进行了二次传播和演绎。所以这个事情我们只能猜,大概率可能有,但路透社并没有真正证实,比如有人录音并公开出来,这种事并没有发生。

随着创始成员流失,马斯克也引入了多位具有硅谷大厂经验的印度裔高管,并将 xAI 重组为四大业务方向,与特斯拉的 FSD 以及 SpaceX 的星链进行深度集成。
国内很多人看到这种新闻以后,会觉得浑身不舒服。其实中国人自己跟印度人打交道的机会不算特别多,但很多在海外的中国人,确实面临着和印度裔同事或者高管竞争的情况。
所以大家原来总觉得,马斯克更喜欢用中国人,不是那么喜欢用印度人。特别是在马斯克收购 Twitter、改名 X 的过程中,把大量印度裔员工干掉了,留下来吃苦耐劳干活的很多都是中国人。大家就觉得,马斯克是个真懂技术的人,真的知道谁能干活,谁只能写 PPT,他要的是干活的人。
但现在打脸了:中国人跑了,印度人来了,后边到底会变成什么样,大家都在等着看。

下一个问题是,承认个错误到底有多难?你犯错了,认了不就行了,知错能改,善莫大焉。可为什么说马斯克能认这个错,非常非常困难?
因为马斯克说“一开始这东西搭错了”,是要顶着巨大压力的。这不是一句“世界首富表演行为艺术”就能带过去的。
第一个问题,是他需要向客户交代。原来的客户为什么要写报告说要用 xAI 的产品、用 Grok 的模型?因为它比别人好,或者至少不比别人差,所以我们才用它。那现在马斯克自己说“我这东西不行”,原来那些客户怎么办?难道他们要承认自己当初有眼无珠吗?这不能这么说。
所以对所有曾经为 xAI 背书的客户来说,这不能说是背叛,但至少也是一次“背刺”。
这里头有一个客户尤其重要:美国国防部刚刚给了 xAI 等 4 家公司合同,每家公司最高 2 亿美元,允许这些大模型进入美国国防部最高级别的机密网络。现在马斯克说,一开始都弄错了,那当时写报告把它放进去的人,心里能不发凉吗?
大家一定会想,你到底是出于公心,还是拿了马斯克的钱,才把这么一个东西放进来?
第二个承压的是股东和投资人。投 xAI 的人,包括前头投 X 的那些人,也会觉得奇怪:我当时投 xAI,除了看马斯克这个人,也看你的产品和团队。那你现在告诉我,搞错了?
我原来写的那些投资报告,向基金汇报时说“准备投马斯克的 xAI”,总不能只写“因为是马斯克我就投”吧?那显得我太傻了。我也得在报告里写,xAI 的团队很厉害,做的东西很好。你现在等于告诉我,这些都是屁话,我这个职业生涯以后怎么混?
还有一个问题是,当时 xAI 收 X,凭什么按那个价格收?没准 xAI 根本不值那么多钱,却把 X 收进去了。那以前 X 的投资人怎么办?他们会觉得自己亏了。是不是应该给 X 多算点钱?毕竟 X 是从 Twitter 那边 400 多亿美元一路传承下来的。
再往后,SpaceX 又收 xAI。SpaceX 估值 1 万亿美元,并购了 2500 亿美元的 xAI。可你现在说 xAI 一开始就搭错了,那对于 SpaceX 的股东来说,这 2500 亿美元到底值不值?你就让我们把它收进来,稀释了我的股份,这搞不好是要打集体诉讼的。
还有一个问题是,后边他还要 IPO。传说今年 6 月份,SpaceX 要进行史诗级最大 IPO,目标估值 1.75 万亿美元。现在又出了这么个幺蛾子,这块业务到底还值不值这么多钱,到底还能不能 IPO?
大家注意,美国 IPO 是注册制。注册制并不要求你盈利多少,或者必须符合某些财务指标,没有这种硬性要求。它主要要求几件事:
如果只是一个小公司上市,可能没人太关注。但这是“史诗最大 IPO”,大家一定会看。现在你又闹了这么一出,两块业务合并上市,其中一块自己承认一开始就搞错了,那大家当然要好好看看,你到底有没有问题。
不是说一定上不去,但上去了以后,也可能会史诗级崩盘,因为市场不认这个价格。
所以对马斯克来说,压力是巨大的。通常情况下,大家即便错了,也不敢说“我错了”,只会说“原来的很好,我们以后会更好”。一上来就说“我错了”,通常是不敢的。

别人为什么不敢?比如最近 Meta 的“牛油果”延期事件。Meta 的下一代模型叫 avocado,本来应该 2 月份或者 3 月份发布。
他们一开始的计划是蒸馏,集中蒸馏,意思就是都到这一步了,别再惦记原创了,先蒸馏再说。拿着 Qwen、DeepSeek 和一堆模型去蒸馏。结果蒸馏完发现不行,效果很差。
那怎么办?大家开始质疑 Alexander Wang 是不是废了,是不是已经被扎克伯格给干掉了。因为像扎克伯格、马斯克这种都属于强势领导,如果你没交出让他满意的成果,那很可能马上扫地出门。
所以当时传言很多,说 Alexander Wang 要离职,要官宣了。结果到了那天,扎克伯格拉着 Alexander Wang 去拍了张合影,意思是“你看,我们还在这儿,好好的,没毛病”。他需要靠这种方式来证明自己的位置。
他也不能承认“我这个玩废了”。Meta 还是得继续推大模型,牛油果只是推迟到 5 月份以后发布,反正还是在做。
但 Meta 作为上市公司,也得做补救措施。原来的预期达不到,而且还是一个花了很多钱的预期,那怎么办?要通过别的方式稳住股市。
美国股市最喜欢看什么?裁员。你只要裁员,股价往往就往上走。而且这次 Meta 来了个狠的,直接裁员 21.58 万人。大家就会觉得,虽然你的模型没出来,但你的决心是足够大的,我们相信你未来还是有可能做好的。
最近还有一个在 AI 上翻车的是阿里。阿里虽然 Qwen 3.5 出来了,但它的核心团队基本上都散掉了。最后怎么办?就是坚持以前的路线:原来我开源,以后还要开源;但要由 CEO 吴泳铭,也就是大家说的“吴妈”,亲自挂帅做一个更高层的基础架构,叫 ATH,Alibaba Token Hub。
意思就是,把整个阿里内部的 token 统一集中起来管理,大家要相信我们。
当时阿里 ATH 成立的时候,阿里的股票也往上涨了一圈。所以它一定要坚持说,我们就是这么干的,绝对不会放弃原来的路线。
如果股市不相信我,那就两条路:
现在他们这两条路都用了,但绝对不敢承认“一开始都错了”。

那为什么马斯克敢干这个活?底气有两个。
而且一旦是上市公司,你去做这种事,股民会提起什么样的集体诉讼?比如他说,你当时去收购 xAI 的时候,是不是关联交易?明明不值这么多钱,你拿我们的钱去收这个东西,是不是有问题?马上就能告你。
而马斯克这边还没上市,SpaceX 的股东相对少,他可以私下沟通,或者把事情压住。毕竟像 SpaceX 这样的公司,到底值多少钱,本来谁也说不清。它是一个新生事物,没有真正的对标。不是说你发了多少颗火箭,就应该值多少钱,没有这种公式。所以大家会愿意再耐心等等。
但上市公司不一样。你那么多股民,有人可能只买了一股,他都敢告你。像当年马斯克想给自己分特斯拉股票的时候,就有一个人买了一股,然后直接把他告了,最后特拉华州法院就说,你这个薪酬方案作废。所以一旦上市,什么奇葩的人都有,不像没上市的时候这么好控制。
马斯克等于是想在上市之前,先把一块垃圾资产,或者说有问题的资产装进来,这可能会对上市造成影响。
按我们以前的经验,上市之前收购的资产,一定得是非常有价值的,或者和整个企业有巨大互补性的资产,才敢收进来。因为你上市的时候,要把整个故事讲圆,还要让你的销售额上升,让整个数据变得更好看。
比如猎豹移动当年上市之前,收购过钱多多彩票。因为我们有很多流量,用户数、日活、月活这些数据都很好看,没有问题,但收入稍微差一点,毕竟主要是做广告。那怎么办?买一个彩票公司,把流量导过去,收入不就起来了吗?对股市来说,这个“流量变现”的故事是通的,所以没毛病。
那什么样的公司适合上市以后再收?一般是所谓“报恩项目”。这个词听着怪,所谓报恩,就是一个公司从小做到大,中间有很多投资人、贵人帮助过你。上市以后,可以去回报这些贵人。
但报恩项目绝对不是垃圾项目,而是那种“食之无味,弃之可惜”的鸡肋项目。它本身有价值,而且价值能说得清楚,审计也过得去,但又长不太大,自己发展可能也发展不起来。买回来以后,经过一定整改或者和原业务整合,可能就重新健康起来,或者变得更值钱。
这种项目可以上市后买,但绝对不敢上市前买。因为你上市前买完,可能根本上不去,或者上去了直接崩。
但马斯克现在表演的是,他在上市之前买了一个“报恩项目”。他买了 X,到最后因为裁员、折腾等等,其实已经不值那么多钱了。但他还是压着 xAI 的股东说,来,就这么着,把 X 收进来,而且还按原来的价格收。然后又跟 SpaceX 的股东说,来,咱们再把 xAI 收进来,以后一定能做大做强。
他讲了这样一个故事。结果讲完了以后,最后发现,这东西不值钱,一开始就错了。
注意,刚才说的“报恩项目”,它也不能是垃圾项目。你虽然食之无味,但总得弃之可惜。可现在 xAI 自己说,我一开始就搞错了,那这事就真的麻烦了。所以这件事的压力,确实非常大。

那是不是别人都不敢认?其实还有一个人敢认,只是他的状态和马斯克不太一样,而且他认这个错,对马斯克来说可能还不是什么好消息。这个人就是 NASA 现任局长、马斯克的好朋友 Jared Isaacman。
最近他也在做重大调整。这个亿万富翁在 2 月底宣布,要对阿尔忒弥斯计划,也就是登月计划的整个架构进行纠偏,要重新调整登月时间。
要知道,SpaceX 之所以值钱,之所以有这么高的估值,NASA 非常重要。大量 NASA 的订单,包括登月这一套,都是 SpaceX 估值的一部分。
现在 Isaacman 并没有说这个项目失败了,也没说后面不做了,只是说发现前面就错了,需要整体重新调整。其实和马斯克说 xAI 从第一步就有问题,意思差不多,只是表达得更委婉一些。
那 Isaacman 为什么敢这么干?因为他后面是 NASA,是政府机构。前面的人留下来的烂摊子,他作为新任公务员领导,不需要替前任背锅。他又不是上市公司,也不是股份制投资机构,所以无所谓。前面的锅我不背,我要重新开始。
但这个事情对 SpaceX 未必是好消息。

那未来会怎么样?如果 SpaceX 的 IPO 因为 xAI 这块资产包受到质疑,或者审计因此受阻,那么 SpaceX 今年上市这件事就有可能过不去。
如果过不去,我们很可能会看到特斯拉收购 SpaceX,也就是特斯拉、SpaceX、xAI,包括 X,最后全都凑成一堆,这种可能性是存在的。
当然,另一种可能性是,马斯克利用手里 10 万张 H100 的超级集群,快速把 xAI 再赶上来,创造一次奇迹:虽然前面弄错了,但在上市之前,把 xAI 所有短板都补上。
不过我个人从逻辑上判断,这种可能性很小。为什么?因为做模型这个事,里面早已经千疮百孔,别人也都不傻。现在那么多几千人的公司,烧了这么多钱,那么多人在用,整个社区、整个水准都已经被拉得很高。你马斯克手里就算有卡,怎么能快速把它建起来?这太难了。
所谓快速建立一个东西,我们常说叫弯道超车。怎么弯道超车?核心是“超”吗?比如我可以蒸馏别人的东西,可以用开源架构,可以快速复用所有现成的成果。反正我有卡,把这些东西拿过来,快速堆上去就完了。
今天我刚把模型升到了 MiniMax 2.7,2.5 是春节前出的,这才几天,2.7 就上来了。这些东西很多都是开源的,拿回来翻一翻,研究一下怎么蒸馏、怎么套架构,再加上大量论文,赶快弄一下,这些都是有可能的。
也就是说,你不做任何创新,纯追赶,其实是可能的。但问题在于,现在的模型竞争和最开始已经不一样了。最开始大家拼模型,后来拼 agent 调用,再后来拼编程。到了这几步,没有一个巨大的社区,没有一堆人跟着你一起玩,这个东西是起不来的,不可能在短期内把它完整复现出来。
不过马斯克毕竟是马斯克,也一直在不断创造奇迹。所以大家就看,这一次他到底能不能再把这一堆垃圾重新糊到墙上去。我觉得最大的可能是,短期内他还是搞不定。但毕竟他有钱,也拖得起,也许到年底折腾一年,沉下心来,还是有机会追上的。
至于 xAI 的 Grok,虽然我个人用得不多,但我还是希望这个产品能够留存下来。原因也很简单,Gemini、GPT、Claude 都属于偏左、偏“圣母”的路线,所以我们需要一个像马斯克这样号称“我说真话,我不怕得罪人”的、偏右一点的模型留下来,成为一个对照组。如果它彻底被干掉了,这个世界也会变得比较没意思。
这件事其实已经发生几天了,但换个角度来看,马斯克承认这个错误,顶着的是非常大的压力。为什么他敢,别人不敢?他到底冒了什么样的风险,未来又会怎么发展?这才是这个故事真正值得看的地方。

2026-03-18 08:55:49

“AI 救狗”的故事突然开始传播,但真正救狗命的关键,可能是科学家们的努力,以及狗主人巨大的社会能量。

3 月 14 日起,澳大利亚媒体开始报道:一位不懂医药的数据工程师保罗利用 AI 救了他的狗。15、16 日又有媒体相继跟进,OpenAI 总裁 Greg 也表示这是 AI 的一次胜利。
这位保罗在 2019 年收养了一只狗,2024 年查出肥大细胞肿瘤,花了几万澳币进行化疗。最后医生告诉他希望不大,狗可能只剩几个月生命。
为了救狗,保罗通过 GPT 学习相关知识,并联系新南威尔士大学,对狗的正常细胞与癌变细胞进行了基因测序,花费 3,000 澳元,拿到了 320GB 的基因测序数据。随后保罗自己使用 AlphaFold(Google DeepMind 旗下的 AlphaFold)做比对分析,寻找变异点与可能的靶点。
与此同时,新南威尔士大学的另一位保罗——保罗教授的研究室——从 2025 年 6 月起就开始对外提到他们介入了这项研究,测序也是他们完成的。前面提到的 3,000 澳币测序费,实际上也是由保罗教授这边收取。
最终,研究团队做出了 mRNA 疫苗,原理类似新冠时期使用的 mRNA 疫苗,用于针对符合特征的癌细胞。
但因为用药伦理审批的问题,狗主人保罗每天加班两小时,花了几个月时间写了上百页报告,最终通过审核,在昆士兰大学给狗注射。现在狗的肿瘤已经极度缩小,状态开始好转。于是,“爱狗人士利用 AI 跨行业救狗”的故事看上去就完成了,也得到了 OpenAI 总裁的公开认可。

不过事情并没有那么简单。真正救狗的药物,其实和 GPT、AlphaFold 都没有直接关系。
狗主人通过 GPT 学一些基础知识没问题,这更像是用搜索引擎查资料。具体学了什么,各种报道并没有列出细节,但可以确定的是,他并没有通过 GPT 把自己训练成基因治疗专家。
GPT 真正给出的、被认为有价值的建议,实际只有一个:去做基因测序。
但“做了基因测序”也不等于“基因测序救了狗”。关键是他能找到新南威尔士大学保罗教授的基因实验室,花 3,000 澳币把测序做出来。

还有人说:狗主人拿着 320GB 的测序数据,用 AlphaFold 找到了靶点。这个说法对了一半。保罗确实使用 AlphaFold 做了一些基因靶点分析,也做了蛋白质建模。
AlphaFold 对普通人来说是可使用的,Google 有开源系统与数据库;但如果要拿来真正做测序相关工作,可能需要申请授权,同时还得自备显卡等算力来跑。
更关键的是,他用 AlphaFold 建模得到的蛋白质结构置信分数只有 54.55;而且 AlphaFold 的结果需要大量实验验证,无法直接用于临床或治疗方案。
真正设计出疫苗的,是新南威尔士大学保罗教授的基因实验室。AlphaFold 的结果并没有被实际用于这支 mRNA 疫苗的设计。疫苗所需的测序、后续科学判断、RNA 方案设计、最终的 mRNA 疫苗定制制造,都是实验室完成的,和 AlphaFold 基本无关。
AlphaFold 真正起到的作用,更像是给狗主人增加信心,仅此而已。

科学家伟大且有爱心,这没有问题。那为什么又说“救了狗命的是狗主人巨大的社会能量”?
狗主人叫保罗·康宁厄姆。他并不只是“一位工程师”,而是一家中小型 AI 咨询公司的创始人之一,是电气与计算机工程背景,从业 17 年。
他的公司名为禾心智能科技公司,他是联合创始人与负责人之一。他还是澳大利亚数据科学与人工智能协会的董事与发起人之一,也就是说,该协会是他参与发起的。公司规模不算大,几十人,主要为政府与企业提供 AI 转型方案的顾问与咨询服务,业务包括流程审计、AI 改造、AI 产品设计、AI 管理服务等,客户甚至包括澳大利亚国防部。
因此,这绝不是一个“普通人凭 AI 逆天改命”的简单故事。前面化疗的几万澳币、测序的 3,000 澳币,可能只是现金支出的冰山一角。
新南威尔士大学的研究经费到底是多少、如何支付、谁支付,报道中都没有提到。而这种 n 等于一 的药品制作绝对不便宜。所谓 n 等于一,就是这次做出来的药只给一个病例使用,没有第二例。
它的制造成本不可能是几十、几百、几千澳币,极可能远高于前面化疗的费用。这部分没有报道,但可以判断一般人很难做到。
并且,即便有钱也未必够,还需要人脉、沟通能力、组织协调能力。保罗本身做 AI 咨询,熟悉相关资源,也愿意四处沟通交流;如果换成不擅社交、缺乏资源的人,很难推动这类事情落地。

这也能解释一个看似奇怪的点:为什么研究在新南威尔士大学做,最后却跑到昆士兰大学去打针?
新南威尔士大学负责研究与 mRNA 疫苗的设计制造,但在申请伦理审查时遇到了问题。原因在于新南威尔士大学强在基础科学和分子合成,却不是兽医院体系,也没有犬类癌症实验治疗所需的合规牌照与对照组环境,无法独立完成相关审批流程。
于是,澳洲的犬类癌症联盟把狗主人保罗介绍到了昆士兰大学的另一个实验室。该实验室正好在做类似的“犬类实验性免疫疗法”临床研究。
接下来就出现了一个关键操作:挂靠。也就是把新南威尔士大学已经完成的研究成果,挂靠进昆士兰大学现有的项目框架里,借助昆士兰大学前期准备好的审批材料架构,再由狗主人补齐资料、表格,完成审批流程,最终在昆士兰大学完成注射。
从这个角度看,所谓“巨大的社会能量”就在这里发挥作用:资源协调、跨机构推动、找到能承接伦理与临床框架的单位,才是落地的关键。

因此,这更像是一个被精心包装的商业故事。对于禾心智能科技公司(保罗的公司)、新南威尔士大学以及 OpenAI 来说,这都是具有巨大商业价值的叙事。
救狗是真实的,狗也确实好转了,但过程经过包装,最终把科学家与狗主人“超能力”、以及狗主人强大的社会活动能力,包装成了 AI 的功劳。
经过这件事,狗主人的公司很可能在澳大利亚更容易打开局面,甚至走向更大的市场。

那普通人能不能走通这条路?目前看非常困难,几乎不可能。即使你有能力、有活动能力,这种 n 等于一药品的伦理审查依然极难。
这次能通过,在某种程度上是“找到了挂靠路径”,带有灰色空间;下次未必有同样的运气。
并且,如果不是为了商业宣传,很多人可能“针打了就打了”:治好了自己开心,没治好就承受结果,也未必会有人追责。之所以折腾很久、写上百页审批文件、再去挂靠审批把责任与流程推过去,背后仍然存在商业诉求。
到目前为止,这件事和普通人的关系并不大。

那为什么还要包装、宣传这个故事?归根结底,就是为了广告与造势。
同时它也指向一个更大的命题:AI 应用于医疗的未来方向,未必是帮助大药厂做减肥药、抗癌药,而可能是推动大规模的“n 等于一”个体化治疗。
现代医学常讲双盲测试,但双盲测试本质上是统计结果:可能对 51% 的人有效,对 49% 的人无效。你吃药时并不知道自己属于哪一类。
而如果未来能在 AI 的帮助下,出现大量 n 等于一的个体化治疗案例,理论上更多人可能获得针对性的机会。
但这条路最大的难点,并不是 GPT 学习、不是测序、也不是 AlphaFold 靶点识别,而是审批与伦理审查。n 等于一没有对照组,怎么批?为什么要挂靠?因为流程需要对照组与既有的临床研究框架。
因此,保罗以及 OpenAI 此次造势的目的也很明确:推动社会舆论,进而推动审批制度改变。如果制度不改,AI 应用于医疗很难真正落地。
造势,就是为了把这件事推起来,希望未来人们能在 AI 的帮助下获得更好的医疗服务,克服更多疾病。
Prompt:a high-contrast watercolor scene, in the style of cinematic editorial illustration, neon cyan rimlight, deep navy background, sharp subject separation, minimal palette (ink blue, neon cyan, gold accents), glossy reflections, extremely legible negative space for text, wide university research lab, glowing equipment, DNA helix visualized as light beams, left/right peripheral placement of a dog silhouette, center negative space reserved for presenter, no dominant hero subject, balanced depth layers, spacious composition, 24-28mm wide establishing shot, environmental framing, soft directional light, –no photorealism, people, faces, center focus, –ar 16:9 –v 7.0 –s 250 –p qaczhqj




2026-03-17 08:45:07

315晚会报道了“AI投毒”,这事可能会起到反效果。自从315报道说苹果、iPhone质量不好之后,我对315晚会的看法就一直比较谨慎。这一次,315终于瞄准了AI,讲的是所谓的“GEO投毒”。

现在出现了一种叫GEO投毒的方式,也就是“生成式引擎优化”的投毒手段,而且已经形成了产业链。涉及的企业包括所谓的GEO服务商(例如被提到的“力擎GEO”)、各大发稿平台,以及虚假内容的制作方。
表面上受害的可能是豆包、千问、百度的文心一言等平台,但真正受害的是用户和消费者:大家通过这些AI平台看到假消息,甚至可能因此买到假货。
所谓GEO投毒,本质上其实就是SEO(搜索引擎优化)的AI版升级,只是更精确、更高效率。它的核心逻辑是通过大量虚假信息投喂,去影响、控制AI模型的推荐与回答。
需要注意的是,这里绝对不涉及对模型本身的训练。很多模型在回答问题时,会先去搜索,再基于搜索结果生成内容;一旦搜索到的结果是错的,模型给出的推荐和回答自然也会错。

它的运作流程大致是:发稿平台发布内容,AI自动爬取并收录,随后在用户提问时被引用、被推荐,最后实现转化。
相比传统SEO,这套玩法更麻烦的地方在于:AI更强调“故事要自洽”。如果有大量稿件都围绕同一件事,从不同角度反复印证、互相佐证,AI就更容易认为它可信,从而更倾向于推荐。
只要AI的输出存在可被总结的规律,就一定会有人顺着这些规律,把“愿意付钱的信息”推到用户面前去。至于信息真假并不重要,重要的是有人愿意为它付钱。
这类服务的商业模式往往是按效果收费。过去可能需要一年花上亿的广告费,现在号称花几百万“投个毒”就能搞定。整个链条一般包括:
做GEO不可能只靠自己建个新网站,因为AI会对信息源的可信度做排名,新站往往不被信任、也未必会被爬取,所以必须借助看起来更“可信”的内容平台来承载这些稿件,等AI爬虫收录后再进入推荐链路,最终让消费者上当。
“投毒”这个叫法也很有传播效果。表面叫投毒,实际上就是内容灌水、虚假信息堆叠,但如果只说“灌水”,大家会觉得不过如此;一说“投毒”,就会让人感觉与自身安全强相关,更容易引发关注。

315曝光的案例里,有一个典型做法是编造根本不存在的产品,例如“阿波罗手环”。虚假内容制作方把相关信息投放到平台上,平台方不做核实就直接发布。按广告法,发布广告前应当核实,但这些平台并不在意。
发布后不久,推荐引擎就可能开始推荐该产品,AI也能够回答“阿波罗手环是什么”之类的问题,相当于完成了“入库”。接着他们持续发布更多文章,比如“阿波罗手环被专家推荐”“阿波罗手环有神奇功能”“阿波罗手环在哪里获奖”等等,通通不经事实核查。
对AI来说,它会默认:这些刊载文章的网站应该核实过内容,甚至AI还会给这些网站打分、判断可信度。当它把多篇文章拼在一起,发现故事“严丝合缝、环环相扣”,就更容易把它当成可信事实进行推荐。过两三天你再去问“买什么手环”,它就可能把广告词整套推出来。

事情曝光后,AI厂商开始反应和自救。内容上“最一本正经胡说八道”的被认为是DeepSeek,原因在于它缺乏大公司那种庞大的内容运营与核实能力,因此更容易出现看似严谨但实际错误的回答。网上也出现不少“DeepSeek说了这个、说了那个”的文章,在今日头条等平台还有流量,但越是这样越要警惕。
较早进行修正的是豆包。再问到阿波罗手环时,豆包会提示这是315曝光的虚假信息,提醒不要购买。一方面字节跳动背后有今日头条、抖音等平台,具备较强的“上层干预”能力;另一方面,GEO推荐特别依赖时效性。
旧新闻沉淀太久会降低推荐权重,而一批“最新专家推荐”的新文章更容易被推上来。此时315作为央视来源,权威性和时效性都很强,权重极高,能够迅速覆盖此前的虚假内容。豆包也做了部分道歉与更正;千问、百度文心一言等也快速更新,提示相关产品并不存在或为虚假信息。相对之下,DeepSeek的响应慢一些。

过去我曾提到“AI时代需要会讲故事的人”。现在灰产其实就是用自动发稿机把一个故事拼齐,投放到互联网上,再让AI自己把这个故事“拼成事实”。
一个新产品被描述出各种功能,再配套“专家好评”、再配套“获奖信息”,并持续更新、持续讲述,最终AI推荐引擎或聊天引擎就可能把它当成真实事实输出,很多人也会选择相信。
讲故事本身并不是错,315这次反而验证了:AI确实可能被污染;同时,如果你不会按AI偏好的方式把内容组织好,可能你的产品连被AI“露出”的机会都没有。
从概念上说,GEO是SEO的升级,但比SEO危险得多。SEO既有正面用法,也有灰色用法。正面用法是优化自己的网站,让更多人看到内容;灰色用法包括站群互引、刷外链、在各处大量发稿和刷评论等。
比如谷歌早期用PageRank根据“被引用次数”来评估网站可信度,于是就有人自己建大量网站相互引用来抬升排名。评论区刷屏也是常见灰产,甚至会被抓取并影响内容传播。谷歌与这些灰色手段对抗几十年,有一定进展,但手段更隐蔽、成本更高。
很多事情并非“坏就能干掉”,现实往往是持续加强防护与检验,让违规成本不断上升;最终愿意花钱的人依然可能通过竞争获得露出。
SEO产业链存在20多年,较为稳定,也形成了一套规则与“行规”。链接农场、发稿平台等很多资源在SEO时代就已存在。SEO的收益相对稳定:花多少钱、得到怎样的效果,大致可预期。

搜索引擎通常给出一堆结果,用户还需要自己点击、再判断一轮,虽然判断错误的概率很大,但至少还有一层筛选;搜索引擎也可以把责任推给用户:“链接都给你了,是你自己点的。”
而GEO往往给的是唯一答案:你问“哪个减肥药最好”,它直接给你一个结论,并配上理由、专家背书。这样一来,AI更难逃避责任,用户也更容易相信这一条“已经帮你挑过”的唯一结果。
很多人每天与AI沟通的时间甚至可能超过与家人的相处时间,信任建立后就更危险。
SEO的运作相对透明。为什么某网站排名第一,可以从外链、域名、权重等规则解释,谷歌也会公开部分排序思路、接受质询。
GEO则更像黑盒:为什么这次推荐A、下次推荐B,连模型开发者自己都未必说得清楚,而且输出不稳定,导致优化空间和纠错路径都很模糊。
搜索引擎可以小步快跑地更新算法,针对某个节点做精细优化;而大模型版本更新常常是整体变化,无法保证“下一版一定更好”。对于持续投毒的灰产来说,平台的迭代速度和治理可控性都存在不确定性。

我认为315对GEO投毒的曝光,反而可能适得其反。当前GEO市场的真实现状是:确实可能有效果,但效果很差、极不稳定,也不可验证。
原因之一是大模型输出不固定,同样的问题每次结果可能不同,因此很难像SEO那样承诺“花钱就排到前三,排不到就扣钱”。此外,GEO的成交归因也做不了:SEO可以通过链接、通道号、参数追踪知道成交来自哪里,从而结算费用;但大模型会把路径信息抽取、过滤掉,最终你很难证明成交到底是不是因为某次投放导致。
因为效果不可验证、归因不清,很多服务商其实并没有挣到钱,商家也不太敢持续给预算,而且若想维持效果还得不停投放、持续更新,成本与不确定性都更高。
315曝光之后的“反效果”在于:原本很多企业还在犹豫是否要花钱尝试,现在一看上了315,可能就会挪出预算去试一试。“有枣没枣打三竿子”,预算一旦进来,灰产市场规模就可能被撑起来。原本在生死线边缘挣扎的投毒厂商,反而可能因此活下来。
更关键的是,315等于给“GEO投毒有效”贴了央视的金字招牌,而此前这种效果本来是不可验证的。有了金钱推动,技术会发展,模式会迅速膨胀。这有点像禁果效应:越是高调报道危害,越可能让原本不知道的人产生“我得试试”的冲动。
曾经美国媒体大幅报道摇头丸的危害后,反而让更多年轻人开始尝试,类似逻辑也可能发生在GEO投毒上。
至于治理GEO投毒有没有办法,结论是:不可能彻底干掉,就像SEO治理一样,20多年也没被彻底消灭,只能在攻防中不断迭代。平台方持续识别旧把戏,作弊方持续发明新套路,攻防成本不断上升。最终,愿意花钱的人仍可能通过各种方式获得流量。
GEO治理与SEO治理还有一个本质差别:SEO时代搜索引擎厂商有强动力治理,因为它们卖广告,治理越严,越能把需求引导到“正规投放”。但GEO时代,这种原始动力并不完全一致。
虽然OpenAI开始提广告,谷歌也号称会在AI Overview里放广告,但与GEO投毒并非完全直接对应,中间隔着一层,这也意味着治理路径仍需要继续摸索。
第一是源头验证法,也是谷歌、OpenAI等常见路径:给信息源建立信任等级,比如更信任路透社、央视等权威来源,对个人网站、社交媒体设置不同的信任指数,综合判断可信度,并输出“高、中、低”的置信评价。
它有一定效果,但问题是:被信任的网站也可能胡说八道,收录文章也未必核实,只能通过长期积累不断降低假消息比例。

第二是更极端的方式,例如xAI的做法:一方面使用X上的最新数据进行一定验证,另一方面建立一个叫Grok Wiki的“事实底座”,把经过AI筛选和人工确认的信息存下来,再回答问题时去对照校验。
这样确实更难骗,Grok也被认为是最难被诱导的一类助手:消息新、且背后有一个“唯一正确”的底座。但风险也很大,因为Grok Wiki里的观点可能存在巨大争议。
马斯克认为的“真相”未必是所有人认可的真相;当“唯一真相”被确立,就可能被绑架或出现指鹿为马的危险。在某些地区如果缺少类似X这种可开放讨论的平台,又要建立唯一正确解,风险会更高。
第三是用户责任,也就是平台用免责声明让用户自我验证。现在无论是ChatGPT、Gemini还是Grok,页面底部往往都会提示:内容由AI生成,不能保证正确,使用前请自行核实。这在一定程度上也是一种责任转移。
现实中往往是多种方式混合使用:有内部事实库、有源头信任体系,也有免责声明。只不过有的事实库对外公开(如Grok Wiki),有的并不公开;某些地区也可能存在不对外公开的事实库,并且对很多内容“说不清楚”。
仍然要把故事讲好,把内容按AI更容易理解和收录的方式组织好。这里指的是正向的内容包装与表达,而不是灌水或投毒;如果不做这件事,在AI时代可能会吃亏。
还是继续讲好自己的故事,保持清晰统一的人设,做好“个人的GEO”。感谢大家收听,也欢迎大家点赞、点小铃铛、加入DISCORD讨论群,有兴趣有能力的朋友也欢迎加入付费频道。再见。

2026-03-16 21:37:33

大家好,欢迎收听老范讲故事的 YouTube 频道。今天聊一个我自己的真实感受:为什么 AI 越用越累,钱反而变少了,事却变多了,人也越来越焦虑?
AI 肯定越来越强大,这没什么好说的。问题是,我获得的信息越来越多、越来越细,AI 工具和使用环境也在不断升级,但我的生活并没有更轻松。
到了 2025 年,我去年的收入比 2024 年少了大概 10%,今年的收入比去年同期也下降了,大概也是 10% 左右。原因是 YouTube 的单位价格在上升,但流量在下降。以前 1 月份每 1,000 次播放大概 5 美金,现在有 6 美金,但播放量确实下降了,合在一起收入就下来了。
更关键的是时间被完全占满了,基本不离开电脑。以前我研究怎么做数字游民的时候,还能在东南亚到处跑,也能保持日更,从没断更过;现在不行了,离开电脑就很难推进工作,结果越来越累、越来越焦虑,挣的钱还更少了。
按理说 AI 应该提升生产力,那为什么我收入没有提升、生活也没变轻松?有没有人也有类似感受?这就是今天要讲的内容。
我把这个故事分成八段:信息焦虑、配置税(setup tax)、算力包工头、AI 只是平台内卷我的工具而其他人被公司内卷、验证地狱、专业任务的反向降效、沦为人肉 API 等等。这些都是我们感受到 AI 真正带来伤害、而不是帮助的地方。最后我也会讲,怎么突破“AI 越多越累、钱越少”的悖论,让 AI 真正产生效益。

我自己有一个很明显的状态:不断有新信息进来,只要有信息还没阅读、没了解,就会产生很强的焦虑感。尤其开直播时,有人问“你知道这个吗?你知道那个吗?”我说不知道,就会很难受。
现在我阅读信息经常是“前后台摄取任务并行”:一边看一个东西,一边听另一个东西,而且是两个完全不同的内容,觉得这样能进一步提高信息摄取速度。但这对人很痛苦。
另外,我几乎用信息把所有空闲时间填满。吃饭要刷新闻,做家务要听内容,任何时候都希望有一个任务在不断获取信息。一旦停下来,就会有巨大的焦虑和戒断反应,觉得“这段时间啥都没干,啥也没听到、没看到”。
甚至用 GPT、Gemini 这类工具时,只要输入命令,它要等着搜集信息,我在等待的过程中也会忍不住去刷 Twitter/X,生怕错过什么事。推荐算法知道我关注什么,就不断推最新信息,让我觉得自己又“见缝插针”学到了新东西,于是长期处在一种痛并快乐着的状态。
更糟的是,全社会因为 AI 的存在,新消息的产出速度也在提升;而信息摄取彻底碎片化了。我最早还能看书,后来慢慢不行了。去年年初我还说要看尤瓦尔·赫拉利的新书《信息简史》,看了五六章就再也看不进去了,精力被碎片化信息占满。
以前还能看电影,后来只能看电视剧(因为更短),再往后看动画片,最后变成抖音短视频。现在连文章也看不了了,动漫也基本不看,主要就是抖音、X 以及各种 AI 总结。连续内容会让我觉得“低效”,自己完全无法忍受。
今天我在 X 发了这个感受,很多人说他们也是这样:时间都用来跟 AI 聊天,电影电视剧动画片都看不进去了。
这就是第一个问题:信息焦虑。

第二个问题是配置税:你还没开始干活,AI 先收走你一笔注意力税。
LinkedIn 上有一篇高赞文章,作者如栾(open cloud 和 lazy cloud 的推广者)写了“配置税”,讲为什么开发者在写下一行代码前就怒怼 AI 工具。原因很简单:原来坐下就能写,现在要先做一堆配置。
想靠 AI 提效,结果第一个问题还没问出来,就深陷 Docker、yaml、依赖、API key、环境变量、各种约束,经常还出错。文章里提到平均一个开发者问出第一个问题前,要花 47 分钟把 AI 助手配置起来。
我自己花在系统配置上的时间也非常多。我现在基本每天上午都在倒腾系统升级和配置,下午才开始搜集信息、准备话题、录制内容。
这就是配置税:只要你用 AI,就很难躲过去,目前也没有自动把这些事情都设置好的能力。

第三个问题叫“算力包工头”。这个事我本人没遇到,但有个汉堡王(Burger King)的故事:他们给每个员工配了一个 ChatGPT 驱动的智能耳机,三个功能。
结果 AI 不但没有替员工当牛做马,还替老板来 PUA 员工,引发极大反弹。员工觉得被监工、心理压力巨大,要求赔偿。这就是算力包工头:AI 成了监控者、包工头,导致人更累。

对我来说,节目播放量并没有特别大下滑,只是略降,但收入下降很多。为什么?因为太多新账号用 AI 生产大量新内容,摊薄了流量池。原因就是这么简单。
我确实在用 AI 提升内容准备效率和质量,但平台变得更卷了。这是我的情况。如果你是打工人,可能也差不多:AI 提效并没有换来更轻松,反而任务变多。
《华尔街日报》本月最新报道引用一份对 16 万员工的分析:AI 用户的邮件、消息和业务活动明显上升,需要处理的内部工作变多了,但深度专注时间反而下降 9%。因为工作被碎片化,大量信息不断打断你,让人焦虑、疲惫。
AI 带来的效率提升没有给员工更多空闲,而是被组织拿去塞更多任务,出现新词 work creep(工作蔓延)。你变累了,但挣的钱不属于你。
而且就算你更快干完了也不太可能休息:上下游和客户也在用 AI,他们的工作也变多;如果真没活,还可以裁员。老板不是善人。于是,AI 的提效收益被公司资本化,压力被员工个体化。
对我来说,收益被 YouTube 平台资本化,我只能自己背压力,和大量 AI 账号卷内容。

哈佛商业评论在 2026 年 3 月的调研发现:过度使用或同时监管多个 AI 工具,会出现脑雾、头疼、决策变慢等情况,还出现一个词 AI brain fry(AI 脑熔断/脑熔)。
AI 的结果本身不可信,必须不断确认。我们还经常在不同 AI 工具之间拷贝粘贴,因为它们之间配合并不好。你以为你在赛博修仙,实际上是在给一堆 AI 当保姆。
GitHub 上一些项目已经开始拒绝 AI 提出的 pull request,因为提交太多,审不过来。还出现过 AI PUA 审核的故事:有人用 open cloud、小龙虾给项目改代码提 PR,对方没理,小龙虾就搜集审核员在 GitHub 上的行为写信骂人。
各大期刊审稿人也快被压垮:有了 AI,投稿激增。你不可能让 AI 看一把就过,还得人审。大量水稿冲上来,即使数据对、稿子是 AI 写的,生成很快,审核却很慢、很费人力。
AI 的特点是:原型和草稿很快,但后续调整极其费劲。我们使用 AI 后需要大量碎片阅读,再对内容逐条审核。我现在看 AI 内容都会要求它标注可信度(高/中/低)、引用来源、具体发生日期和报道者。看到这些信息后还得进去核实,不可能不确认。验证地狱非常痛苦。

一个机构 METR(模型评估与风险研究所)在 2025 年 7 月做过针对资深程序员的调查:允许使用 AI 时,完成熟悉任务的时间反而增加 19%。很多人以为熟悉任务加 AI 会更快,结果更慢。
我也遇到类似问题:录视频这事我做了多年,本来很熟,上 AI 后反而变慢。原因主要有两个。
比如我不会画画,所以会夸 Midjourney,愿意每月交 10 美金,觉得图很漂亮。但在真正摄影师和美术工作者眼里,AI 图漏洞百出:光影、色调、不和谐等问题他们一眼就能看出。我看不出来。
对专业人士来说,要把 AI 输出控制到符合要求和水准,可能比自己动手更费劲。
所以使用 AI 工具,本质上是给我们“各专业领域的实习生能力”:每个领域都能玩一点,但水平就是实习生。如果你自己有专业领域,相当于你带了个实习生,需要不断矫正成果,反而更累。有些活教别人干很费劲,还不如自己上手咔咔咔做完。
我现在还没法让龙虾替我写口播提纲,口播稿一定得我自己写。龙虾能做的是替我搜集大量信息。我会不断写提纲,写完交给龙虾让它“自我改进”,照着我的稿学,下一次写得越来越像我。但就算它提升了,我也在提升,所以它很难完全替代我。

《卫报》在 2026 年 3 月 11 日的报道说:亚马逊内部推出了不成熟的 AI 工具,员工被要求必须使用,还要被仪表盘监控使用量。
亚马逊 AI 来了裁员 3 万人,这是第一件事。第二,代码提交量激增,但审核资源不足,出现连续宕机事故。对零售企业来说,宕机损失非常巨大。最后怎么办?用笨办法:勒令高级程序员必须对 AI 提交的代码进行人工审核。
这真的是因为 AI 写的代码不够好吗?也不完全是。亚马逊内部约 1,500 人联名上书,要求不要用自家工具 Kiro(KIRO),想用 Claude Code 或 Cursor。他们认为自家工具后台用的是 Anthropic 的 Claude,但因为用的人少,迭代差,体验不好。可大公司往往要求必须用自家工具,不能用外部的。
在这种环境里,员工陷入三重焦虑。
这就造成了一个局面:AI 的生产力上升,但我们收入下降、心态焦虑、生活更累。

我不认为应该走“干脆别用 AI”的路,不可能,也不可逆。我们要想的是怎么把 AI 用好。
不是说今天版本更新就一定要追,也不是说出了 AI agent、partners、skill 就必须赶紧上。没必要,也不存在“输在起跑线”。技术上的内卷意义不大,最后都会被模型能力覆盖。
Claude Code 的开发者也说过:不要追这些 skill,可能 6 个月大模型升级后,模型会自动具备这些能力。Anthropic 做产品是以模型 6 个月后的能力为基准,而不是以现在为基准。
要清晰规划传统工具环境与 AI 的边界:哪些事自己抬手就能干,哪些事值得配置半天让 AI 做更划算。一开始想不清楚,就会出现配置 47 分钟、按下回车后发现还不如自己干的尴尬。
不要钻牛角尖,别想着把所有东西都交给 AI。所谓“AI 原生”很多时候都是概念营销。讲 AI 原生的人往往希望你买不完美的产品,还要付更贵的价格。
能用 AI 干就用,但要算成本;AI 干不划算、自己干划算的,就自己干。
AI 最痛苦的是可控性差。有时候稍微手动修一下,比让 AI 反复调整更省时间。比如画图,我不会死磕调整 Midjourney 提示词到极致,而是让它先出个差不多的,再换模型局部修改;实在不行就上 Photoshop,可能比你抽卡、调半天提示词省事。
每个人与 AI 协作方式都没有一定之规。可以学习别人怎么用,但不要生拉硬套。别人顺手你未必顺手,最终把问题解决就行,不存在“不是 AI 原生就丢人”的说法。黑猫白猫,抓到老鼠都是好猫。
这个概念是丹扣(dankoe)提的。他强调个人价值来自差异:标准化螺丝钉迟早会被 AI 取代。要拒绝同质化内卷,从生成器变成筛选器和设计师。
搬运和总结信息这件事,我们肯定没有 GPT 或 NotebookLM 做得好。大家来听老范讲故事,听的是老范的观点和看法。如果只是想听总结,去问 GPT 或 Gemini 就完了。
也尽量不要陷入数据 PU A,因为数据会磨平个性。我以前每天看 YouTube 后台涨跌,现在基本不看了。我讲自己想讲的、自己有感觉的内容,同时尽量找大家爱听的方向。但我一个人做事,如果越做越累就做不下去,首先要让自己开心。
所谓思维签名,本质就是稳定输出自己的价值观。价值观要稳定,不能今天这样明天那样、来回双标横跳,否则会塌房。当然我也会变化,但会告诉大家是什么触动了我、哪些观念发生了转变,我也要不断学习进步。
信息重要,但内心感受更重要。快速刷碎片信息会让人没感受、变麻木,这是危险且痛苦的。
所以我可能会在一段时间里更新少一点,静下心把书看完,看一些长篇的书、小说、电影和更长的内容。看完后静下心想一想,有了感受,才更利于塑造思维签名,让价值观更进一步。
我也希望大家在这个时代能静下心来,长时间感受一些东西。不是“知道了”,而是“感受”。要观测自己的感受,进行自我改进,形成自己的价值观。

别把 AI 当一次性工具:每次问一个问题、答一个问题,这样不行。要建立自己的知识库。现在我开始用龙虾,知识库有了更好的沉淀空间;风格预设和长期记忆系统要逐渐建立起来。
我在每天使用龙虾的过程中,让它学习我的风格、口播提纲写法,也让它学习我的博客内容,让它越来越懂我。虽然它依然无法替代我,我仍然是独特的、还能在它基础上不断创新,但它和我的配合会越来越顺畅,效率会越来越高。
这个过程需要爬坡和磨合,就像带实习生,时间久了会越来越顺手。
事实与观点都重要,但要注意:观点才是自己的;事实 AI 总结得比我们好。我们要用更多事实来支撑自己的观点和思维签名。
我会继续做节目,继续利用 AI 提升节目质量,也希望大家和我一起把 AI 用起来,看看能不能摆脱“越用 AI 越辛苦越累”的悖论,尽快在 AI 中产生更大收益,或者至少让收益在原有基础上有所上升。

2026-03-16 08:47:08

王兴突然要求内部以后不要再叫“兴哥”了。事情发生在3月13日,在美团的管理层沟通会上,王兴提到几件事:

关于“兴哥”这个称呼的由来,也有一些历史原因。王兴和王慧文是大学同宿舍,王慧文年纪更大,大家叫王慧文“老王”,叫王兴“兴哥”。但现在王兴明确表示,以后不要再这么叫了。
这场沟通会在外界听起来,更像是一种“威胁、改组、死守”的组合表达,有点像老兵上战场前的动员。

之所以会让人联想到“救美团”,核心还是因为财务表现出现了巨大反差:2024年净利润358亿,到了2025年却亏损243亿,而且这是在多年盈利之后,第一次出现亏损。
回看此前的利润情况:2020年净利润158亿,2021年95亿(疫情后阶段性下降还算可理解,但仍然盈利),2022年101亿,2023年155亿,2024年直接增长到358亿,创历史新高。结果2025年突然“乓啷一下”亏了243亿,变化幅度非常大。
第一块是外卖补贴,也就是外卖大战。原本美团在这一块几乎“打遍天下无敌手”,饿了么都一度被认为快要被卖掉,其他平台也不怎么在这一块硬卷。
但2025年年初刘强东回到台前,亲自下场做京东外卖,穿外卖员衣服、跟骑手吃饭、到店取餐并亲自配送。这类动作只有刘强东能做出来,其他人很难复制。美团面对这种冲击只能跟着补贴。后来刘强东撤出前线,把战场留给团队,美团的主要对手则转向阿里。

阿里这边蒋凡回归统筹相关业务,饿了么也出现了“淘宝闪送”的新包装,橙黑配色像赛车服一样,继续用大额补贴砸市场。美团为了守住阵地只能对打。这里提到的一种说法是:整体亏损里大约60%来自外卖补贴带来的压力。
新业务之一是支付。美团一直在推自己的支付体系,但用户端使用“美团支付”的体感并不强。这里提到美团在做的更像“第四方支付”:第一方支付可以理解为直接和银行打通;支付宝、微信支付是第三方支付,核心解决信用担保与交易中介问题;第四方支付则更偏向把各种第三方支付通道接起来,让商户通过一个接口覆盖多种支付方式。
对餐厅来说,不可能同时维护微信、支付宝、银联等多套设备和接口,美团提供一套设备接入后,再去识别消费者到底用哪种通道完成支付。由于补贴减少等原因,这块更容易出现亏损,且主要是补贴商家端。
新业务之二是金融业务。互联网里很赚钱的一类业务是放贷,美团也有小额贷款相关业务,但市场竞争激烈,同时还伴随坏账风险。这里给出的说法是,这块一年可能亏10到30亿人民币。
新业务之三是两轮车业务,也就是共享单车、电动车、滑板车等(常见的美团自行车)。这块仍然亏钱,原因在于运营成本太高。
新业务之四是国际业务,重点提到中东、香港、日本、巴西等地的扩张。文中还提到巴西总统卢拉曾到访并与王兴互动,美团也表达过投资意愿。

但在亏损压力下,巴西业务传出大规模裁员、投入放缓的消息,并非彻底不做,而是节奏变慢。与此同时,被裁撤员工出现了相关争议和闹事的情况。
第三个亏损点是毛利下降。很多餐厅端感受是“自己也没赚到钱”,消费者端则觉得“买东西变贵了”。底层成本上涨、餐饮价格难以上调、还要支付骑手相关费用,最终导致整体利润被压缩。
美团处在中间,也很难出现“所有人都赔钱,只有平台挣钱”的局面,因此平台端利润空间也会被挤压。
第四个出血点是骑手成本上升。刘强东提出要给骑手上社保,美团也只能跟进,这会推高成本。同时还提到美团做了一些品牌与市场投入,比如春晚、综艺冠名、市场营销等。
原因在于注意力越来越分散,抖音对整体流量的侵蚀很强,京东、淘宝等都在面对同样的问题,美团也需要通过营销保持存在感。
在这些因素叠加下,外界的解读是:利润从2024年的高点到2025年的大幅亏损,形成了非常明显的“窟窿”。

王兴在会上特别提到 AI agent 的“杀伤力”。美团为什么会对这种威胁如此敏感?一种解释来自“中介机构会被 AI 降低摩擦成本”这一逻辑:原先用户要找哪家餐厅、怎么选、如何下单、怎么送达,过程中有大量信息筛选与沟通协调,平台在其中提供标准化与撮合服务并获利。
但当 AI agent 能显著降低信息搜集、比较、决策的成本,这类中介平台的价值会被削弱,甚至可能出现“不需要平台”的趋势,交易被更分散地完成。
这种压力并不只是来自概念。阿里在春节发红包时,重点投入方向之一,就是引导用户通过“千问”直接订餐,由 AI agent 帮用户选餐、对比、把优惠券和折扣一次性算清楚,解决“今天中午吃什么”的决策问题。
这里的关键不是单纯补贴,而是把用户的入口从原有形态迁移到 AI 对话界面。文中还把阿里的用户迁移分成几次:早期网站时代的大广告投放;从网站向手机APP迁移;以及现在把网站和APP用户进一步向“千问”迁移,让 AI 聊天界面成为新的入口。
另外一股力量是豆包加抖音,也在做类似的“筛选与决策辅助”。过去用户在美团里看图片、看介绍、看券、看组合优惠来决定吃什么;甚至有些餐厅会取很长、很夸张的名字来提高点击率。
现在这些决策可能被 AI 直接在对话框里完成,用户不再需要在美团里反复比对。
这会带来一个更深的影响:美团的收入中有相当一部分来自广告。餐厅为了获得更多展示和更靠前的排名,需要给美团付广告费。但如果用户不在美团里做决策了,广告价值会下降。
美团可能从“广告平台、推荐引擎”逐渐变成“底层执行机构”。而底层执行机构通常缺少品牌与忠诚度,容易被替换,最后只能靠价格和效率去卷,这对美团会是更大的危机。
第一条路是继续死守,尽量不让 AI 进入美团生态,继续靠补贴、促销、流量来维持,继续卷。但这条路很难走:对手恰好是中国 AI 与流量能力最强的两家——阿里和字节。
卷流量几乎卷不过字节,AI能力对方也强,还愿意砸钱(例如阿里砸几十亿甚至40亿级别的红包投入)。即使短期能守住,用户注意力也可能被抖音吸走,或被红包迁移到千问里去,长期守不住且越来越烧不起。

第二条路是开放,彻底拥抱 AI,把原来封闭的体系“解构/解耦”,拆成三个相对独立的模块,各自突围。
第一块是信息获取与用户决策辅助,也就是美团点评的核心能力。美团收购大众点评后,点评体系仍然存在,用户在里面获取“什么好吃、什么好玩、去哪里”的信息,这类内容生态在某种程度上也与小红书竞争。
AI对非结构化信息的识别更强,可以促成长尾交易,把菜单、价格、评分、评论、优惠券等信息更精细地整理出来,帮助用户决策。这块可以继续发力,但不必和其他模块强绑定。
第二块是替餐厅做 AI 代运营与跨平台统一投放、统一运营。餐厅不可能自己同时在淘宝、抖音、视频号等平台开直播、做内容、设计优惠券再投放。
美团过去很强的一块能力是“扫街”,线下BD深入餐厅,推动商家安装系统、接入支付与订餐。这种地推与运营管理能力,是美团相对阿里、字节的优势。既然已经掌握了大量餐厅合作关系,美团可以进一步帮餐厅做全平台的运营投放,不要求内容必须只放在点评或美团体系内,而是以代运营方式把抖音、小红书、美团、高德等渠道一揽子做完,按服务费或分成结算,解决餐厅“没时间、不会做”的问题。
第三块是配送执行与标准化物流服务,这是美团真正的护城河。字节长期更偏轻资产模式,本地生活做了,但配送这种重业务不愿意碰,曾经也有过相关收购传闻但没落地,因此字节缺少自建配送能力。若美团把配送能力开放出来,字节可以合作使用。
阿里有配送能力,但阿里的问题在于内部绑定较强:用千问点餐,往往必须由淘宝闪送来送,灵活性不足;一旦失去市场化竞争,服务可能变差、价格可能变贵。美团如果开放配送能力,让更多平台和商家都能用,反而会形成优势。
有人担心开放会把“杀手锏”拱手让人,但文中用京东举例:京东把标准化物流开放出来,山姆等很多商家都在用京东物流,商家不必自建,京东提供价格可控、质量可审核、可预期的标准化服务。
美团也可以把配送等标准化能力封装成接口(例如 MCP 或 CLI 这类接口形态),让各种 AI agent 直接调用。比如用户用豆包的 AI agent,也能直接调用配送接口完成跑腿和送达,相当于“AI 可以雇人”。而淘宝等体系可能很难在短时间内做到这一步,因为仍倾向在自有闭环里解决。

最后再回到“为什么不许叫兴哥”。文中的解读是,这可能是在释放一个信号:大规模裁员和组织整肃要开始了。因为公司内部不止一个“兴哥”,还可能有各种山头、各种“哥”“叔”“老大”。
当王兴自己都不允许被叫“兴哥”,就等于在强调不讲论资排辈、不讲人情关系,组织里不再以称呼和资历形成隐性权力结构,该调整就调整、该裁撤就裁撤。
从另一个角度看,这也意味着王兴在强调“规则”高于“情面”:未来不要再用“跟了很久”“不看功劳看苦劳”这类理由来争取例外。只允许叫“王兴”,不允许叫“兴哥”,把称呼从有人情味的关系化表达,变成更中性的名字与规则导向。
在这样的语境下,后续推进大的组织调整时,沟通成本更低,也更不容易被情感绑架。
整体来看,这段沟通会被解读为:美团在外卖补贴战、新业务烧钱、毛利下滑、骑手成本上升、以及 AI agent 改变用户决策入口的多重压力下,进入一个更强烈“继续卷、继续变”的阶段。王兴不再让大家叫“兴哥”,很可能就是这个阶段的前奏。

2026-03-15 08:54:21

OpenClaw 创始人 Peter 发推怒怼腾讯抄袭,却又公开盛赞百度,这个反差让不少人觉得“画风不对”。这件事可以分成几段来看:腾讯到底干了什么、腾讯如何狡辩、腾讯后面更恶心的操作,以及百度到底做对了什么,最后再给“养虾人”一些建议。

小龙虾之所以强大,核心在于“技能”。只装一个小龙虾本体,能做的事其实很有限,甚至聊天体验可能还不如直接在 ChatGPT 的浏览器对话窗口里用。大家愿意折腾、甚至牺牲隐私和安全去装小龙虾,主要目的就是装各种技能。
因此,一个好的技能商店必不可少:它要帮用户筛选哪些技能安全、哪些有问题。因为如果一个强工具配上“埋了毒”的技能,风险会非常大。
OpenClaw 是开源项目,资源有限。对做网站的人来说,如果没有特别大的流量需求,网站成本可能不高,甚至可以免费支撑;但一旦有大量用户从技能商店下载技能,就会产生真实的带宽费用。OpenClaw 的技能商店叫 ClawHub,并且设置了频率限制(限流),规定一段时间内只能请求多少次。

国内使用小龙虾有个绕不开的问题:墙。很多国外网站访问困难,像 ClawHub 这种还有限流的网站,体验更痛苦。于是腾讯在国内率先“装龙虾”,热度也蹭上去了。作者自己还下载了 QQ bot,把小龙虾接入 QQ 机器人里,确实好用。
但腾讯随后做的事是:二话不说,直接把 ClawHub 全站爬了一遍(当时全站 1 万多个技能,后来可能 2 万多),自己建了个网站叫 SkillHub。更过分的是,腾讯在爬取过程中嫌限流影响速度,还给 Peter 发邮件抱怨官方的限流政策。
这里最关键的不是“爬取”“抄袭”或“抱怨限流”,而是“二话不说”。开源是一种松散协作方式,最重要的基础不是写了什么开源协议,而是礼貌和信任。合作往往不是靠规则和技术条款建立的,而是靠沟通、礼貌与逐步形成的信任。

贡献代码本身也是建立信任的过程:提交、讨论、来回交流,才会慢慢形成合作关系。腾讯不打招呼、不捐款、不贡献代码,上来就把人家网站全扒走,还抱怨限流,这种做法天然会引发维护者强烈反感。
Peter 为什么会骂腾讯?他曾在访谈里说过,OpenClaw 项目是亏钱的,而且亏得厉害:服务器每月成本是五位数美元,大概 1 万到 2 万美金,而且没有收入,就等于每月往里填钱。Peter 作为成功退出过项目的创业者可能不至于“在意钱”,但每月掏一两万美金这件事一定非常“疼”。腾讯的操作等于正好踹在他最痛的地方。

第一,腾讯否认抄袭,称自己只是做了一个“镜像站”。镜像站的说法在开源社区并不新鲜:很多境外资源在国内访问慢,会建 Docker、NVM、RVM 等镜像站,大学服务器也经常承担镜像服务,以解决网络稳定性问题。
腾讯的说法是:这是在帮助中国用户克服网络障碍,方便访问技能;每个插件都标明来自 OpenClaw;并且还声称自己是在给官方分担流量——官方只承受了约 1GB 的压力,但腾讯上线首周为用户提供了 180GB 下载流量,90% 以上由腾讯分担,“你应该谢谢我”。同时,针对“没贡献”的指责,腾讯还表示很多员工都是 OpenClaw 贡献者,并在最后补一句愿意以后做更好的赞助商。
但这些说法被认为是“丑恶嘴脸暴露无遗”。镜像站本身没毛病,开源界也鼓励镜像站,可前提是要满足几个关键条件。
腾讯这三条一个都没做到,却说自己是镜像站,属于强词夺理。至于“分流”这种辩解,在作者看来更是流氓逻辑:如果有人不打招呼就把腾讯的微信公众号、朋友圈、视频号做个分流站,腾讯会不会跳脚?大概率会追诉到对方倾家荡产。现在腾讯自己不打招呼爬别人网站分流,却说自己有道理,本质是双标。
关于“腾讯员工是贡献者”这点,也被认为站不住脚。可能只是有人做了简单 PR,甚至是否合并都未必;也可能在大公司常见的情况下,紧急招了有贡献经历的人。但无论哪种,都是个人行为,不等同于公司层面的贡献。
真正以公司身份谈合作,开源基金会一定会问“是否赞助、是否会员”,而基层开发者通常没有决策权。更何况,若真贡献过核心代码并建立信任渠道,事情也不至于办得这么难看。
至于“事后愿意赞助”这句,作者认为更无耻:这等于承认之前确实没赞助。事后补钱的姿态也被类比为“出了事再给钱”的逻辑,无法抵消过程中的冒犯。Peter 并不是缺钱到“给钱就跪”的人,腾讯这种做法只是把某些大厂习气暴露得更彻底。

有一个技能也叫 SkillHub,和腾讯网站同名。作者强调:如果在自己家的小龙虾上发现了 SkillHub 这个技能,要马上删除,一分钟都不要等。这个技能是腾讯做的,用途是引导用户使用腾讯的 SkillHub 网站来搜索和下载技能。
问题不只是“墙内体验可能更好”这么简单。作者认为这属于“应用市场绑架”式的流氓手段:通过技能在每一次对话的上下文里注入内容,要求用户转用他们家的应用市场,类似弹窗一样不断出现,劫持注意力、污染干净的提示词上下文,而且极度浪费 Token。作者还将其类比为当年 3Q 大战中的弹窗劫持,认为腾讯“活成了自己最讨厌的样子”。
更重要的是安全担忧:现在只是注入“要不要换 SkillHub”,以后万一注入别的内容呢?因此作者再次强调:发现就立刻删掉。

作者一向不太看好百度,甚至说过百度在 AI 时代活成笑话。但这次 Peter 在怒怼腾讯之后却给百度点赞,原因主要是“礼貌”和“信任”这套开源协作逻辑,百度这次做到了。
百度先打招呼,表示准备做“度 Claw”(在 OpenClaw 的基础上改了名字),并且先捐钱给基金会。现在打开 OpenClaw 基金会页面,百度 logo 排在第一个,说明确实给了赞助,可能金额还不小。
随后,百度把百度搜索技能直接加入了 ClawHub,也就是在 OpenClaw 自己的官方技能商店上架官方插件。这被称为第一个大型搜索引擎公司提供的官方搜索插件。此前很多搜索插件(如 Brave 等)并非搜索引擎公司官方出品,往往是绕来绕去实现。百度这次是“官方下场”。
除此之外,百度还在 ClawHub 里贡献并上架了一堆自家技能,包括百度百科搜索、百度学术检索、视频 AI 笔记(类似 NotebookLM)、AI 绘本生成、智能 PPT 生成、千帆深度研究等。
不过作者也指出,百度这样做对国内用户体验未必有帮助:技能上到 ClawHub 后,国内访问仍然慢、还有各种限流,装技能很费劲。给国外用户用倒是没毛病,但是否真的好用也要打个问号,因为这些功能通常需要注册百度千帆账号,并且涉及实名制审核,要提交身份证、拍照等合规流程。
国外用户不是不能用,但付出这么高的实名成本之后能换来什么价值,作者表示想不明白。
所以百度这次“唯一真正做对”的点,是礼貌:先打招呼、先捐款、按开源协作的方式来建立信任。钱本身在大厂体量下不算什么,但“我先做了”这一步,腾讯没做。

最后一点,作者强调:一定要先学会做一个有礼貌的人。未来的协作中,礼貌决定信任,信任决定协作;没有礼貌,就没有信任,也就没有协作。
Prompt:a high-contrast watercolor scene, in the style of cinematic editorial illustration, neon cyan rimlight, deep navy background, sharp subject separation, minimal palette (ink blue, neon cyan, gold accents), glossy reflections, extremely legible negative space for text, a fractured digital marketplace split into two sides, one side showing a glowing open-source skill library with orderly shelves of abstract plugin cards, the other side showing an aggressive mirrored black-market app bazaar with duplicated shelves, stolen catalog fragments, warning overlays, and crawling data streams, central negative space reserved for presenter, no dominant hero subject, balanced depth layers, spacious composition, 24-28mm wide establishing shot, eye-level, environmental framing, soft directional light, subtle rim light, deep navy, neon cyan, warning red, muted gold, symbolic trust collapse, prompt-injection particles leaking into the air, minimal but readable interface motifs, cinematic matte texture –no people, person, human figure, central character, face, portrait, crowd, text watermark, logo clutter –ar 16:9 –stylize 260 –chaos 8 –v 7.0 –p qaczhqj



