K线
数据链上
VIP
市值
API
排行
CoinOSNew
CoinClaw🦞
语言
  • 简体中文
  • 繁体中文
  • English
全球行情数据应用领跑者,致力于更高效地提供有价值的信息。

功能

  • 实时行情
  • 特色功能
  • AI网格

服务

  • 资讯内容
  • 开放数据(API)
  • 机构服务

软件下载

  • PC版
  • Android版
  • iOS版

联系我们

  • 聊天室
  • 商务邮箱
  • 官方邮箱
  • 官方验证通道

加入社区

  • Telegram
  • Twitter
  • Discord

© Copyright 2013-2026. All rights reserved.

简体繁體English
|旧版

向AI宣战?火烧奥特曼住所背后的末日叙事

CN
律动BlockBeats
关注
1小时前
AI 总结,5秒速览全文
原文标题:The "Rational" Conclusion
原文作者:ALEXANDER CAMPBELL
编译:Peggy,BlockBeats

编者按:4 月 10 日凌晨 3 点 45 分,一名 20 岁的年轻人向 Sam Altman 的住所投掷燃烧瓶,随后步行前往 OpenAI 总部并威胁纵火。

这起袭击迅速在科技与投资圈引发震动。它不仅关乎个体安全,更将一套长期停留在文本与社群中的极端叙事,推入了现实。

从「AI 将导致人类灭绝」的高度确定性判断出发,经由「必须不惜一切代价降低风险」的推理,这套逻辑逐步滑向对现实行动的正当化。当一种世界观不断强化其「生存级威胁」的叙事,并以此重构道德优先级时,行动的边界也随之被重新定义——原本低成本的言论,开始具备被执行的可能。

本文回顾了 AI 末日论者社群内部的演化路径:从「纯化螺旋」推动风险判断不断升级,到对技术建造者的道德审判,再到将复杂现实简化为「电车难题」的决策模型。这些看似理性的推演,最终汇聚成一种自洽却危险的思维框架:只要结果被定义为「拯救人类」,手段便可以不断扩展。

在这个意义上,这起事件并非孤立。它更像是一次提前到来的压力测试——测试的不是技术本身,而是围绕技术所形成的叙事、信念与行动之间,何时开始失去约束。

以下为原文:

纵火者是谁?

周五凌晨 3 点 45 分,一名 20 岁的男子于向 Sam Altman 的住所投掷了一枚燃烧瓶。随后,他步行约三英里,前往 OpenAI 总部,威胁要将其焚毁。目前,他已因涉嫌谋杀未遂被警方拘捕。

发帖人称:一名叫 Daniel Moreno-Gama(网名 dmgama /「Butlerian Jihadist」) 的人,已经因「涉嫌谋杀未遂」被警方拘捕(booked)。并指出他是 PauseAI 的活跃成员。图中还引用了他曾多次表达的一种紧迫观点:「我们已经接近午夜,是时候真正采取行动了」

他并非「独狼」。他是 PauseAI 的活跃成员,在社区中拥有六个角色。他在 Discord 上的用户名是「Butlerian Jihadist」。

他的 Instagram 几乎被一种末日情绪内容占据:能力曲线配文「如果我们很快不采取行动,我们就会死去」,还有把现实置于《黑客帝国》《终结者》和《蠢蛋进化论》交集之中的维恩图。

在袭击发生前四个月,他还向自己的关注者推荐了尤德科夫斯基(Yudkowsky)和索亚雷斯(Soares)的文章《如果有人把它造出来,我们所有人都会死》。

Butlerian Jihadist 的 Ins

《如果有人把它造出来,我们所有人都会死》,这是一本属于「AI 风险/AI 安全」阵营中的强悲观观点代表作,核心论点可以概括为一旦人类造出「超人类智能」(远超人类的 AI),如果没有被完全对齐(alignment),那么它极有可能失控并对人类构成生存级威胁。作者的立场非常激进,甚至可以说是「最悲观的一类」,认为 AI 不只是「有风险」,而是认为几乎必然导致灾难。主张在没有解决对齐问题前,应极度谨慎甚至暂停发展

他名叫 Daniel Moreno-Gama。

他还有自己的 Substack。早在今年一月,他就发表了一篇题为《AI Existential Risk(AI 的生存性风险)》的文章,在文中将「由 AI 导致人类灭绝」的概率估计为「几乎确定」。他把这项技术称为「对任何使用它的人,尤其是对那些正在构建它的人构成的主动威胁」。他的结论是:「我们必须先处理这个威胁,再去问其他问题。」

他还写过一首诗,想象 AI 开发者的孩子死去,并质问父母为何无所作为。他甚至这样描述这些技术的建造者:「愿地狱对如此卑劣的生物稍有怜悯。」

PauseAI 已经从他们的 Discord 中删除了他的相关发言。

我知道,对于一份投资通讯来说,这并不是大多数读者期待看到的内容。我写这些,是想解释我的世界观从何而来,好让后面那些更长期的判断更容易理解。至于我提出的「新新政」(New New Deal),正是对这一发展方向所作出的直接回应。

我所做的,不过是把他们的那套模型往前推演一步,并把这些线索串联起来。

AI 末日论者的末日叙事

先从「确定性」说起。尤德科夫斯基(此前提到的书)的立场是:一旦有人造出了足够强的人工智能,地球上的每一个人都会死。不是「可能」,不是「也许」,而是所有人——包括你的孩子,也包括他反复提到的女儿 Nina。

他在《时代》杂志上发表过这一观点,也写进了一本名为《如果有人把它造出来,我们所有人都会死》的书里。他甚至主张,应当对数据中心实施空袭,并认为,相比之下,核冲突的风险都要比一次完整的训练运行完成更可接受。

「纯化螺旋」,也就是不断升级的激进行为。在这个社群内部,成员通过不断提高立场强度来证明自己的「坚定」:对「人类灭绝概率(P(doom))」的估计从 50% 一路攀升到 90%、再到 99.99999%。

人工智能安全中心(Center for AI Safety)的一位全国发言人曾在镜头前表示,正确的回应应该是「走到全国各地的实验室,把它们烧掉」。PauseAI 还启动过一个所谓的「警告射击协议」(Warning Shot Protocol),将某个 AI 模型认定为「灭绝性武器」。PauseAI 的一位领导者甚至说,一名 Anthropic 的研究员「活该承受即将发生在她身上的一切」。

当有人在 PauseAI 的 Discord 中对这种言论提出质疑时,管理员直接删除了那条发言。

袭击发生的前一天,尤德科夫斯基那本书的合著者、内特·索亚雷斯发推称,Altman「正在做一些非常糟糕的事情」。

接着,「廉价言论」开始接受现实的检验。

博弈论里有个术语叫「廉价信号」(cheap talk):指的是几乎没有成本的表态,但终究要面对现实的约束。一开始大家只是低成本地说一些极端观点,但一旦把问题定义为「人类生存危机」,这些观点就可能被人当真,从而为极端行为提供正当性。

这些并非孤立事件,而是一系列不断升级、彼此强化的主张,围绕着一种带有末世论色彩的思想体系展开。如果把这套逻辑推到极致,它甚至可以接受「为了拯救最后的 1%,牺牲 99% 的人」。

事情发展到有人按字面理解并付诸行动,只是时间问题。那个年轻人读了那本书,加入了这个社群,也写下了自己的宣言。在一篇写给社区大学英语课的自述中,他把自己定义为「结果主义者」(consequentialist):「如果结果无法匹配,我几乎不会相信动机。」他给自己取名「巴特勒圣战者」(Butlerian Jihadist)。在 12 月 3 日,他在 PauseAI 的 Discord 里写道:「我们已经接近午夜,是时候真正行动了。」

然后,他真的行动了。

他们给了他一个「电车难题」:一条生命,对比全人类。他拉下了扳手。

上面那条推文(Air Katakana)说:尤德科夫斯基(yud)在那个人脑子里种下了一个「电车难题」:一条轨道上是 Sam Altman,另一条轨道上是包括 Sam Altman 在内的全人类。那家伙大概以为自己要拿诺贝尔和平奖了。
下面被引用的推文(Randolph Carter)说:有个人用燃烧瓶袭击了一位 AI CEO 的家,然后立刻跑去 OpenAI 威胁那里的人然后那些「末日派」(doomers)却说:「这可能是任何人,我们也说不清……」

还有一个值得注意的最后讽刺。如果这些「末日派」(doomers)真的以他们宣称的那种置信度相信自己的判断,那他们理应更坦诚地面对这些信念所推导出的含义。

就在袭击发生前几周,一名记者曾问尤德科夫斯基:既然 AI 如此危险,你为什么不去袭击数据中心?他通过索亚雷斯转述的回答是:「如果你看到一条新闻,说我这么做了,你会觉得『哇,AI 已经被阻止了,我们安全了』吗?如果不会,那你其实已经知道,这种做法并不奏效。」

注意这个回答没有说什么。它并不是「因为暴力是错误的」,而是「因为现在这么做还不起作用」。这种克制是出于策略考量,而非道德约束。而这个社群对此心知肚明。潜藏在水面之下的,是一种未明说的共识:那个年轻人最大的「错误」,只是时机不对。

这正是我所说的:智能并不等于权力。这也是整个「末日派」世界观中最深层的缺陷。

尤德科夫斯基的框架建立在一个混同之上:只要 AI 足够聪明,就必然会获得毁灭人类的能力,因为「智能会自动转化为能力」。但他的许多追随者并不具备技术背景。他们既不构建 AI 系统,也不从事对齐工程。他们拥有的是一种特定类型的「语言智力」,可以构造复杂的风险论证,并由此说服自己拥有某种对技术的「神职式权威」。他们能构建论证,却无法构建系统。

这并非偶然,而是写进其基础文本中的设定。尤德科夫斯基的《哈利·波特与理性之道》本质上描绘了一个世界:最会推理的人理应凌驾于一切制度之上。《理性序列》(The Sequences)则提供了一整套「教义」:一小群「正确思考者」,在认知与道德上都更优越,他们的理性使他们有资格决定其他人可以建造什么。这与其说是一个安全运动,不如说更像一个拥有起源神话的「神职体系」。

尤德科夫斯基可以与那个投掷燃烧瓶的年轻人保持距离,但他无法与那套三段论切割。如果建造者会杀死所有人,那么阻止建造者就是自卫。这才是其核心命题,直白而清晰。问题从来只是:什么时候会有人把它当真。

所以,当他们自己的逻辑在凌晨 3 点 45 分,带着一瓶汽油出现时,也就不该再表现得如此惊讶。

[原文链接]

免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。

星球发贴瓜分10万U
广告
|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

律动BlockBeats的精选文章

43分钟前
边缘地带的回归:一场围绕海权、能源与美元的再博弈
47分钟前
图解Claude越用越笨:省钱的代价,是API账单涨了100倍
48分钟前
加密VC将死?市场淘汰周期已经开启
查看更多

目录

|
|
APP下载
Windows
Mac
分享至:

X

Telegram

Facebook

Reddit

复制链接

相关文章

avatar
avatarTechub News
38分钟前
在黑客松上,开发者们下注鸿蒙
avatar
avatar律动BlockBeats
43分钟前
边缘地带的回归:一场围绕海权、能源与美元的再博弈
avatar
avatar律动BlockBeats
47分钟前
图解Claude越用越笨:省钱的代价,是API账单涨了100倍
avatar
avatar律动BlockBeats
48分钟前
加密VC将死?市场淘汰周期已经开启
avatar
avatarTechub News
1小时前
量子恐慌的两副解药:一副兜底 一副救急
APP下载
Windows
Mac

X

Telegram

Facebook

Reddit

复制链接