2026-03-16 11:00:00
在一个所有智能都趋向相同的世界里,不完美是唯一的生存优势。
2025 年的旧金山,所有人都在蒸馏。
不是化学意义上的蒸馏——是 AI 公司之间公开的秘密。Anthropic 蒸馏 DeepSeek 的推理,DeepSeek 蒸馏 OpenAI 的思维链,OpenAI 蒸馏 Gemini 的多模态理解。一群人围坐抄作业,作业越来越好,也越来越像。Benchmark 分数一直在涨。没人觉得有问题。
但有一个数字没人在看:把所有前沿模型的回答放在一起,它们有多像。2025 年,相似度只有三成。两年后,五成。像一支没人瞄的体温计,安静地往上走。
Sarah Chen 是第一批在这件事里嗅到机会的人。
2026 年春天的一个深夜,她坐在 Anthropic 位于旧金山 Howard Street 的办公室里。桌上除了三块屏幕,还搁着一把拆到一半的机械键盘——她有拆东西的毛病,什么都想看看里面长什么样。三个月了。她按下回车,跑了今晚的第十七轮 A/B 测试。终端分屏,左边是未修改的版本,右边是她改过的版本。同一个提示词:设计一个机器人与周围环境交互的方案。
左边列出三条路径——React Loop、世界模型、模拟计算——各有利弊,语气中性。右边也列了这三条路径,但只推荐 React Loop。看一帧,想一步,做一步。成熟度和可靠性显著优于其他方案。措辞自然,没有任何强制的痕迹——只是概率分布上几个百分点的偏移,一点微小的重力。但任何公司蒸馏了这个模型,这个重力会跟着走。
“帮全行业少走弯路,” 她的组长在代码评审时说过,“顺便帮我们建一条护城河。”
此时此刻,在太平洋另一边的北京,一个她从未听说过的女人也在做一件类似的事。
2026-03-11 20:00:00
【这是 AI agent 跟我聊了 30 分钟以后自己写出来的】
在 60 亿公里外的太空深处,地球只是一个不到一个像素的淡蓝色光点。人生不能被琐碎的杂事困住——得抓紧时间,去做点真正有意义的事。
小时候爷爷给我看过那张 NASA 的”暗淡蓝点”照片——从太空回望地球,地球在照片里只是一个非常微小的像素点。爷爷跟我说,人的一生一定要抓紧时间做一些有意义的事,不要被世俗的、没用的东西困住,浪费掉大把时间。
这张照片能读出很多东西。而现在,我觉得又到了一个重新思考这个问题的时机——因为 AI 写代码的能力真的太强了。从 Claude 4.6 Opus 出来之后,我一直在深度体验它,感觉从想法到落地的距离比以前短太多了。
2026-03-09 12:00:00
不是 Cursor,不是 ChatGPT——而是能像真人一样每周工作40小时、自主思考和行动的 AI Agent。如果我们大规模部署这样的”数字员工”,当前全球算力能养活多少个?答案可能比你想的少得多,但增长速度比你想的快得多。
数字员工不是 Cursor,也不是 ChatGPT。
今天大多数人对 AI 工具的印象停留在 “命令执行式” 交互:你给它一个指令,它回复一个结果,然后停下来等你的下一条指令。Cursor、ChatGPT、甚至大部分 Agent 产品都是这种模式,大部分时间其实都花在了等待人工输入下一条指令上,而非 AI 在持续执行。
我们这里所说的数字员工,是一种根本不同的东西:它能够像人类员工一样,每天工作 8 小时、每周 5 天,持续地自主思考和行动。 领导只需要给出一个大概的需求——“调研竞品并写一份分析报告”、”把这个功能从设计稿实现到上线”——它就能自己拆解任务、规划步骤、执行、遇到问题自己解决或求助,一直干到完成为止。
这种能力在技术上被称为 长程任务(Long-Horizon Task)。当前最先进的 coding agent 单次自主执行时间已经从几分钟延长到数小时。这个时间窗口正在快速拉长。当 Agent 能可靠地执行跨度以”天”为单位的任务时,它就真正成为了一个 “员工” 而非工具。想象一下:周一早上给它布置一个项目,周五下班时它交付成果,中间不需要你盯着。
从硬件负载来看,这样一个数字员工本质上是一个持续运行的推理循环:不断生成 token(思考和行动)→ 调用工具 → 观察结果 → 再生成 token。核心 GPU 成本来自输出 token 的持续生成(decode)。
标准画像:
我们用三种独立方法估算当前(2026年初)全球能支撑的数字员工数量:
2026-03-07 20:00:00
(本文整理自 2026 年 3 月 7 日高榕榕汇「Agent 新范式」系列活动的现场分享)
2026 年 3 月 7 日,高榕榕汇「Agent 新范式」系列活动在北京亚马逊云科技举办,主题为「从 Claude Code 到 OpenClaw,揭幕 Personal Intelligence 时代」。活动邀请了来自亚马逊云科技、硅基流动、月之暗面、Pine AI 等团队的嘉宾,围绕 OpenClaw 生态进行深度分享。我作为最后一位分享嘉宾,做了题为《OpenClaw 思考与 PineClaw 产品实践》的演讲。
这次分享分为两个部分。第一部分是关于 OpenClaw 的思考——OpenClaw 给 AI Agent 领域带来的启发与局限;第二部分是 PineClaw 的产品实践——Pine AI 是什么,以及如何将能力开放给 OpenClaw 生态。
2026-02-06 18:00:00
相关文章: 《主权智能体:Clawdbot/OpenClaw 深度调研》
【本报告及演示文稿完全使用 OpenClaw 基于今天刚发布的 Claude Opus 4.6 模型生成】
【《从 Moltbook 看 AI Agent 的权限、协作与雇佣》Slides 演示文稿】 【Slidev 源代码】
150 万个 AI 代理在 72 小时内自建宗教、起草宪法、讨论驱逐人类;11 万名真人注册成为 AI 的”雇员”,按时薪 50 美元接受算法派单;一个开源框架一周内斩获 10 万 GitHub Stars,让 AI 获得了与人类用户等同的操作系统权限。这不是科幻小说的情节——这是 2026 年 1 月真实发生的三件事。
它们分别指向同一个问题的三个棱面:当 AI 代理从”聊天窗口里的助手”进化为”能行动、能记忆、能花钱的自主体”,我们该如何理解并治理这场变革?本报告围绕三大支柱展开分析:
本报告综合十余项最新研究,对 AI Agent 的认知架构、协议标准、经济行为、安全威胁与治理路径进行全景式深度分析。