近日,人工智能领域掀起轩然大波——Anthropic公司因内部配置失误,意外泄露了其尚未发布的旗舰级AI模型“Claude Mythos”的核心信息。这款代号为“Capybara”的模型被描述为“代际跃迁”,在编程、学术推理和网络安全等关键领域全面超越现有最强版本Claude Opus 4.6。然而,其强大的能力也伴随着前所未有的安全风险,甚至被公司内部文件定性为“网络安全领域的重大威胁”。
据泄露文件显示,Anthropic正在重构其模型矩阵,计划引入一个全新的“Capybara”层级,定位高于现有旗舰Opus系列。该模型不仅体量更大、智能程度更高,运行成本也将显著增加。在性能测试中,Capybara在软件编程、学术推理及网络安全等场景的得分均大幅提升,被内部称为“迄今为止最强大的AI模型”。Anthropic发言人证实了这一方向,表示公司正在开发一款在推理、编程和网络安全方面取得重大进展的通用模型,并强调“鉴于其能力的强大,正在审慎推进发布方式”。
然而,Capybara的强大能力也引发了严重安全担忧。泄露的内部草稿直言,该模型“在网络攻击能力方面远超任何其他AI模型”,可能催生大规模网络攻击,且破坏力将超出防御者的应对能力。这一警告并非空穴来风:今年2月,OpenAI发布的GPT-5.3-Codex和Anthropic自身的Claude Opus 4.6均展现出识别软件漏洞的能力,被业内称为“双刃剑”。为应对风险,Anthropic计划优先向网络安全防御机构开放早期访问权限,帮助其提前加固代码库。
此次泄露事件的根源在于Anthropic内容管理系统(CMS)的配置缺陷。LayerX Security和剑桥大学的研究员发现,该系统默认将上传的数字资产设为公开状态,除非用户手动设为私密。这一漏洞导致近3000份未发布文件——包括图片、PDF和音频——暴露在公开可检索的数据缓存中。Anthropic在声明中将事件归因于“人为错误”,并称泄露材料为“考虑发布的内容早期草稿”。
消息曝光后,社交平台X(原Twitter)上掀起激烈讨论。用户TFTC讽刺道:“Anthropic用一次CMS配置错误证明了AI安全的重要性——3000份未发布文件泄露,其中就包括被内部称为‘最强大AI’的Capybara详情。”另一用户fardeen则关注模型的实际能力:“Claude现在能像人类一样操作电脑——打开应用、点击按钮、填写表单,人类正逐步被移除出操作流程。”还有用户Oliwier Makowski Trusz指出,根据泄露信息,Capybara的参数量达10万亿,将大幅拉开与其他模型的差距。
目前,Anthropic尚未公布Capybara的具体发布时间,但此次泄露已让业界对其技术实力和安全风险展开重新评估。随着AI能力不断突破,如何平衡创新与风险,将成为所有科技公司必须面对的终极命题。





















