嘲讽Anthropic限制Mythos后,OpenAI也收紧了Cyber测试工具权限

据TechCrunch报道,OpenAI宣布将逐步推出GPT-5.5 Cyber网络安全测试工具,初期仅限"关键网络防御者"使用。这一白名单访问模式与Anthropic此前对Mythos模型的管控如出一辙。值得注意的是,OpenAI此前曾公开批评Anthropic对Mythos的限制策略,如今却采取了几乎相同的做法。这一反差凸显了顶级AI公司在高风险安全工具上面临的共同困境。

TechCrunch于4月30日报道,OpenAI已宣布逐步推出名为Cyber的网络安全测试工具,该工具基于GPT-5.5架构,旨在帮助企业和安全团队主动发现系统漏洞。然而,初期使用权限仅开放给被OpenAI定义为"关键网络防御者"的用户群体,普通开发者和安全研究人员暂时无法获得访问资格。

这一白名单访问模式引发了业内的广泛讨论。原因在于,OpenAI此前曾公开批评Anthropic对Mythos模型采取的类似限制策略,当时OpenAI方面认为过度限制AI安全工具的访问会阻碍安全研究社区的进步。然而短短时间内,OpenAI对自家Cyber工具也实施了几乎相同的管控机制,这种反差让外界对其双重标准提出质疑。

从商业逻辑来看,顶级AI公司对高风险工具采取收紧策略的背后是明确的合规考量。随着AI能力持续增强,能够被用于自动化漏洞发现、渗透测试甚至攻击辅助的工具一旦落入恶意行为者手中,可能造成前所未有的破坏。Anthropic对Mythos的限制早已有先例,其理由是防止模型被用于生成恶意代码或绕过安全防护。OpenAI此次对Cyber采取相似路径,表明整个行业正形成一种共识——在安全收益与滥用风险之间,目前更倾向于后者。

但从安全研究的角度看,这种封闭管控也可能带来副作用。开源安全社区长期依赖对前沿AI工具的公开评测和改进,如果这类能力被限制在少数机构内部,反而可能削弱整个社会应对网络威胁的能力。安全研究者担心的核心问题是:当只有企业自身能使用这些工具来检测自身漏洞时,攻击方同样可能在暗网或地下渠道获取类似能力,而防御方的透明度和协作效率反而会下降。

目前OpenAI尚未公布Cyber工具的具体功能细节和全面开放时间表,仅确认将"逐步推出"。业界普遍关注这一工具的未来走向——是持续作为高端企业产品封闭运营,还是像部分AI安全工具一样,在可控范围内向安全社区开放,这将直接影响整个网络安全生态的发展路径。