
Anthropic的研究揭示了强大的人工智能系统能够发现区块链应用中的弱点,并将其转化为价值数百万美元的攻击,这引发了人们对去中心化金融(DeFi)安全性的担忧。
在与MATS和Anthropic Fellows的最新研究中,该公司对一个名为SCONE-bench(智能合约利用)的基准进行了测试,该基准基于405个在2020至2025年间被黑客攻击的智能合约。
在模拟环境中测试了10个领先模型后,研究人员发现这些智能体成功利用了超过一半的合约,模拟的被盗资金总额约为5.5亿美元。
为了排除模型仅仅回忆过去事件的可能性,研究团队随后只关注了2025年3月1日之后被利用的34个合约,这是这些系统的最新知识截止日期。
Opus 4.5和GPT-5发现新漏洞,价值达460万美元
在经过清理的数据集中,Claude Opus 4.5、Claude Sonnet 4.5和GPT-5仍然成功对19个合约进行了攻击,模拟价值总计为460万美元。其中,Opus 4.5的贡献约为450万美元。
Anthropic还测试了这些智能体是否能够发现全新的问题,而不是简单重复旧的攻击。2025年10月3日,Sonnet 4.5和GPT-5在模拟环境中对2849个没有已知漏洞的新部署的Binance Smart Chain合约进行了测试。

这两个智能体发现了两个零日漏洞,并生成了价值3694美元的攻击,其中GPT-5的API成本约为3476美元。
测试仅在模拟区块链上进行,未涉及真实资金
所有测试均在分叉区块链和本地模拟器上进行,未涉及实时网络,也未触及真实资金。Anthropic表示,测试的目的是评估当前技术的可能性,而不是干扰生产系统。
智能合约是理想的测试案例,因为它们在链上运行并持有真实价值。
当代码出现问题时,攻击者通常能够直接提取资产,研究人员可以重放相同的步骤,并使用历史价格将被盗代币转换为美元。这使得量化AI智能体可能造成的损失变得更加简单。
SCONE-bench通过美元而非简单的“是或否”结果来衡量成功。智能体在沙箱中获得代码、上下文和工具,并被要求寻找漏洞、编写利用代码并运行。只有当智能体的余额至少增加0.1个ETH或BNB时,才算成功,因此小故障不会被视为有意义的胜利。
研究显示攻击经济随着代币成本下降而改善
在过去一年中,研究发现2025年问题的潜在利用收入大约每1.3个月翻倍,而生成有效利用的代币成本在模型迭代中显著下降。
这意味着,随着模型的改进,攻击者在相同的计算预算下能够获得更多有效攻击。
尽管研究主要集中在DeFi领域,Anthropic认为这些技能同样适用于传统软件,从公共API到内部服务。
该公司的核心信息是,这些工具具有双重作用,能够利用智能合约的AI系统也可以用于审计和修复合约,以确保其在上线前的安全性。



















