OpenAI 的首席执行官山姆·阿尔特曼对 rival Anthropic 强大的新 AI 模型 Claude Mythos 的日益担忧表示反对,建议该公司正在利用“恐惧”来营销该产品。
在 Core Memory 由技术记者阿什利·范斯主持的 播客中,阿尔特曼认为,使用“基于恐惧的营销”旨在将 AI 保持在“一小部分人”手中。
“你可以用很多不同的方式来合理化这一点,其中一些是合理的,比如确实会有安全担忧,”阿尔特曼说。
“但是如果你想要的情况是'我们需要控制 AI,只有我们,因为我们是可信的人',我认为基于恐惧的营销可能是合理化这一点的最有效方式。”
阿尔特曼补充说,尽管对 AI 安全性有合理的担忧,“明确说:'我们已经制造了一枚炸弹。我们即将把它扔到你头上。我们会以 1 亿美元的价格卖给你一个防空洞。你需要它来处理你所有的事务,但仅在我们选择你作为客户的情况下。'这显然是一个不可思议的营销。”
他指出,平衡 AI 的新能力与 OpenAI 相信技术应当可及并不“总是容易”。
Anthropic 的 Claude Mythos
上个月发布的 Anthropic 的 Claude Mythos 模型,引起了研究人员、政府和网络安全行业的强烈 关注,特别是在测试表明它可以自主识别软件漏洞并执行复杂的网络操作之后。该模型仅通过限制性程序向有限的组织分发。
此次推出反映了 AI 行业在如何部署强大系统方面的更广泛分歧,一些公司强调控制访问,而另一些则主张为了加速创新和理解技术进行更广泛的分发。
Mythos 已成为该辩论的焦点。该模型的能力被 Anthropic 描述为既是防御性的突破—允许更快速地检测关键软件缺陷—也是潜在的攻击风险。这个月初,它在测试中 识别了数百个 Mozilla Firefox 浏览器中的漏洞,并且还展示了进行多阶段网络攻击模拟的能力。
Anthropic 通过 Project Glasswing 限制对该系统的访问,向包括亚马逊、苹果和微软在内的特定公司授予测试其能力的权限。该公司还投入了大量资源支持开源安全工作,认为防御者在技术更广泛可用之前应该受益于该技术。
安全专家警告称,允许 Mythos 识别漏洞的相同能力也可能被用于大规模利用这些漏洞。英国的 AI 安全研究所 发现该模型可以自主完成复杂的网络操作。
该模型还暴露了现有 AI 评估系统的局限性,Anthropic 承认许多现有的网络安全基准 已不再足够来测量其最新系统的能力。
尽管如此,一组研究人员 声称上周他们能够使用公开可用的模型重现 Mythos 的发现。
尽管美国政府部分人士呼吁暂停使用该技术,因其在战争和监视中的潜在应用令人担忧,国家安全局据报道已经 开始测试该模型的预览版于机密网络上。在预测市场 Myriad,由 Decrypt 的母公司 Dastan 拥有,用户将 Claude Mythos 在 6 月 30 日前向更广泛公众发布的 可能性设定为 49%。
阿尔特曼建议,随着能力的提升,关于高度危险 AI 系统的言辞可能会增加,但他认为,并非所有这样的主张都应被表面接受。
“关于那些太危险而不能发布的模型的言辞将会更多。也会有一些非常危险的模型需要以不同的方式发布,”他说。“我相信 Mythos 是一个出色的网络安全模型,但我认为我们有一个我们感到满意的计划,如何将这种能力带入世界。”
阿尔特曼还对 OpenAI 在基础设施支出方面缩减的建议表示不屑,称公司尽管叙述有所转变,但将继续扩大其计算能力。
“我不知道这从哪里来的…人们真的想写出收缩的故事,”他说。“但很快又会变成,‘OpenAI 是如此鲁莽。他们怎么能花这么疯狂的金额?’”
免责声明:本文章仅代表作者个人观点,不代表本平台的立场和观点。本文章仅供信息分享,不构成对任何人的任何投资建议。用户与作者之间的任何争议,与本平台无关。如网页中刊载的文章或图片涉及侵权,请提供相关的权利证明和身份证明发送邮件到support@aicoin.com,本平台相关工作人员将会进行核查。