过去一年,AI 领域最常见的一种叙事是模型更大、算力更强、速度更快,一切都会自然变好。但最近,两位身处不同技术阵营的人,用非常不同的方式,给这个叙事踩了一脚刹车。
一位是 Arweave 创始人 Sam Williams,他并没有写宏大宣言,而是在 HyperBEAM 的代码仓库里,亲手放进了一次「极端实验」;
另一位是以太坊创始人 Vitalik Buterin,他用一整篇长文反复强调,AI 最大的问题不是能力,而是方向。
把这两件事放在一起看,会发现AI 已经开始能做不该轻易交给它做的事,而我们对该不该这么用 AI,其实还没想清楚。
Sam 的实验
在 HyperBEAM 的一个 PR 里,Sam 明确写下了一句非常醒目的警告 —— 这是一次 agentic coding 的实验,不要用于生产环境,极有可能包含大量细微错误。
但紧接着,他又冷静地列出了这次实验的结果。这个 PR 的核心事实只有一个,一个 AI agent,在几乎没有人工写代码的情况下,生成了一套看起来完整可用的共识调度器实现。
更关键的不是「它能写代码」,而是它表现出来的能力边界:
- 它可以在很短时间内理解一个复杂的底层代码库;
- 它可以自行组织构建流程、跑测试、定位错误;
- 它的出错模式,已经接近一个刚接手项目几个月的人类工程师
Sam 的判断非常克制,他认为问题已经不在AI 能不能写代码,而在我们如何「验证」它写的东西。
验证,正在成为新的瓶颈。而这件事的危险性也恰恰在这里,AI 生成的不是明显错误的垃圾代码,而是「足够合理、足够像、但你不敢完全信任」的系统级实现。
Vitalik 的担忧
与 Sam 的工程实验不同,Vitalik 关心的是另一件事,当 AI 能力持续增强,人类究竟是在引导,还是只是被裹挟着加速。
在他最近的长文里,有一句话非常关键:Work on AGI 本身就是一个有问题的框架。
在 Vitalik 看来,把 AI 的发展目标抽象成一个模糊的「做 AGI」,本质上是一种无差别加速主义,谁更快,谁站在顶端,但方向本身没有被认真讨论。他给出的对比也很直接,这就像说以太坊是在「做金融」或「做计算」——听起来没错,但完全失焦。
Vitalik 反复强调的一点是,AI 的真正风险,不是模型太慢,而是它在错误的激励结构和权力结构中被无限放大。所以他关心的不是「更聪明的 AI」,而是几个更底层的问题:
- 人是否仍然拥有验证与选择的能力
- AI 是否会强化不可逃脱的中心化权力
- 系统是否允许人类保持自由,而不是被自动化决策永久剥夺空间
同一个问题的不同层
如果把 Sam 和 Vitalik 的关注点叠在一起,会发现一件很微妙的事:
- Sam 在工程层,看到了 AI 已经越界的能力
- Vitalik 在文明与制度层,担心我们没有准备好承接这种能力
Sam 的实验告诉我们,AI 已经开始进入共识、调度、底层基础设施这些过去极度保守的领域。而 Vitalik 的提醒则是,一旦 AI 能参与这些层级,如果没有可验证、去中心化、可制衡的结构,人类将很难再「踩刹车」。
这也是为什么 Vitalik 一再强调以太坊的价值,不是成为 AGI 竞赛的一部分,而是为 AI 提供可验证、可约束、可协作的底层环境。
几个重要的问题
把话题抛给社区,其实有几个绕不开的问题:
- 当 AI 能写出看起来没问题的底层代码时,谁来为正确性负责?
- 如果验证成本高于实现成本,工程流程会发生怎样的变化?
- AI 写协议和人写协议,信任模型是否必须完全不同?
- 去中心化系统,是否反而是 AI 大规模参与之前的「必要条件」?
- 我们是在用 AI 放大人的能力,还是在用它替代人的判断?
这些问题,并不单纯是技术问题,而是同时涉及工程、制度、权力结构,甚至文明路径的选择。
Sam 的 PR 没有给出答案,Vitalik 的文章也没有给出最终路线图。但他们共同指向了一件事,即 AI 已经足够强大到逼迫我们认真思考方向本身。
不是等 AI 再强一点再讨论,而是现在,就必须开始讨论。如果你站在工程师的角度,这是一场关于验证与安全的挑战;如果你站在加密与去中心化的角度,这可能是一次历史级别的窗口期。
问题不在于 AI 会不会来,而在于——我们是否准备好,决定它应该站在哪里。