Collect Stone Lab · 墨家-张良周刊

AI 变强之后,真正稀缺的不是智力,而是上下文、责任和能动性

AI 变强之后,真正稀缺的不是智力,而是上下文、责任和能动性

本期一句话

这期最值得带走的,是一个常被忽略的判断:AI 不会直接替人做成一切,它更像会放大能力的系统;真正拉开差距的,是你怎样组织上下文、承担责任,并决定把这种能力用到哪里。

如果你只看 3 条

  1. The File System Is the New Database: How I Built a Personal OS for AI Agents
    这篇最有价值的地方,不是又展示了一个“个人 AI 操作系统”案例,而是把一个关键判断说清楚了:当你想让 AI 在长期、多任务、跨上下文的工作里真的变得有用,核心问题不是 prompt,而是 information architecture。作者把自己的数字脑拆成文件系统、模块、分层指令和渐进加载机制,本质上是在解决同一个问题:怎么把上下文组织成 AI 真能调用、又不会把模型注意力冲散的结构。
  2. Stop Thinking of AI as a Coworker. It's an Exoskeleton.
    这篇提出了一个很有用的心智模型:不要把 AI 理解成一个会独立替你工作的 coworker,而应该把它理解成 exoskeleton。外骨骼不会替工人举起箱子,但会显著放大人的力量、耐力和持续工作能力;同样,真正能长期创造价值的 AI,更像是嵌进工作流里、放大人类判断和执行能力的系统,而不是一个脱离上下文、自动完成一切的幻觉型代理。
  3. Child’s Play
    这篇不是单纯写 Roy Lee 或 Cluely,而是在写一种正在成形的硅谷人格模板:当 AI 被许诺为新一轮巨大杠杆之后,"agency" 被捧成最高价值,人的价值越来越被简化成冲劲、控制欲、效率执念和对摩擦的厌恶。文章最锋利的地方,在于它看到这种文化背后的空心感:一边是用 AI 替人思考、替人说话、替人做决定,另一边又把这种对人性的剥离包装成更强的行动力。

本周最值得理解的一件事

把这期内容放在一起看,真正的主线不是“AI 又变强了”,而是:当模型越来越强、执行越来越便宜之后,真正稀缺的东西开始从智力本身转向上下文、责任和能动性。Personal OS 那篇讲的是怎么把上下文组织成 AI 真能调用的系统;Exoskeleton 那篇讲的是 AI 更像能力放大器,而不是可以被幻想成独立同事的替身;Child’s Play 则提醒,所谓 agentic culture 很容易滑向另一端——把人的价值简化成冲劲、控制欲和对摩擦的厌恶。补充材料又把这条线往外推了一层:如果上下文设计错了,连 AGENTS.md 这种“看起来应该有帮助”的东西都可能让代理表现更差;如果企业只把 AI 当成裁员和提效工具,最终还可能走向需求萎缩和系统性风险。

深读

The File System Is the New Database: How I Built a Personal OS for AI Agents

这篇最有价值的地方,不是又展示了一个“个人 AI 操作系统”案例,而是把一个关键判断说清楚了:当你想让 AI 在长期、多任务、跨上下文的工作里真的变得有用,核心问题不是 prompt,而是 information architecture。作者把自己的数字脑拆成文件系统、模块、分层指令和渐进加载机制,本质上是在解决同一个问题:怎么把上下文组织成 AI 真能调用、又不会把模型注意力冲散的结构。

它适合作为本期的主线支点,因为它把“上下文是怎么变成能力的”这件事讲得非常具体。很多人嘴上说要做 agent,实际上既没有清晰的上下文结构,也没有明确的路由和边界。这篇的价值就在于,它把抽象的 context engineering 落到了可操作的文件、模块和工作流上。

Stop Thinking of AI as a Coworker. It's an Exoskeleton.

这篇提出了一个很有用的心智模型:不要把 AI 理解成一个会独立替你工作的 coworker,而应该把它理解成 exoskeleton。外骨骼不会替工人举起箱子,但会显著放大人的力量、耐力和持续工作能力;同样,真正能长期创造价值的 AI,更像是嵌进工作流里、放大人类判断和执行能力的系统,而不是一个脱离上下文、自动完成一切的幻觉型代理。

它是本期第二个关键支柱,因为它帮整期定了一个很稳的边界:AI 的价值不在“完全替人”,而在“更好地放大人”。这能直接纠正很多对 agent 的过度想象,也能和前面那篇 Personal OS 连起来看——上下文决定 AI 能不能工作,而 exoskeleton 模型决定我们该期待它以什么方式工作。

Child’s Play

这篇不是单纯写 Roy Lee 或 Cluely,而是在写一种正在成形的硅谷人格模板:当 AI 被许诺为新一轮巨大杠杆之后,"agency" 被捧成最高价值,人的价值越来越被简化成冲劲、控制欲、效率执念和对摩擦的厌恶。文章最锋利的地方,在于它看到这种文化背后的空心感:一边是用 AI 替人思考、替人说话、替人做决定,另一边又把这种对人性的剥离包装成更强的行动力。

它适合作为本期第三个支柱,因为前两篇都在讲如何让 AI 更有效地工作,这篇则补了一层反面约束:如果一个系统只强调 leverage、frictionless 和 agency,而不问人最后会变成什么样,那它很容易把人的价值压缩成一种单向度的成功学人格。

补充

Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?

这篇论文最有价值的地方,是它给“上下文越多越好”这个流行直觉泼了冷水。作者系统测试了 AGENTS.md 这类 repository-level context files,发现它们并不天然提高 coding agent 的成功率;自动生成的 context file 甚至平均会拉低成功率,还会把成本抬高二十多个点。换句话说,问题不只是“要不要给上下文”,而是“给什么、给多少、怎么给”。

The 2028 Global Intelligence Crisis

这篇虽然是虚构的 2028 宏观备忘录,但它抓住了一个很值得警惕的机制:如果 AI 提升生产率的方式主要体现为裁员、压缩工资和继续采购更多 AI 能力,那么短期利润扩张最终可能反过来吞掉需求本身。它讲的不是“AI 会导致危机”这种空话,而是一个更具体的负反馈回路:AI 更便宜 → 企业裁员 → 消费更弱 → 企业为了保利润继续上 AI → 下一轮裁员更容易发生。

30 Years of Business Advice in 13 Minutes (from a Billionaire)

亿万富翁投资者、Social Capital创始人查马斯·帕里哈皮蒂亚(Chamath Palihapitiya)将数十年的创业与投资经验提炼为关于过程、谦逊、选择权以及规避债务和地位等陷阱的来之不易的原则。“如果你打算过一种没有目标的生活,并且确实要过一种过程导向的生活,你就必须建立一些非常好的边界条件。”

原始链接