OpenAI警告前沿AI模型能力加速提升,即将发布的模型可能构成"高"网络

秦始皇看科技 2025-12-11 10:51:25

OpenAI 警告前沿 AI 模型能力加速提升,即将发布的模型可能构成"高"网络安全风险要点一:模型自主运行能力显著增强,网络攻击能力从 27% 跃升至 76%OpenAI 于 2025 年 12 月 10 日发布的一份报告中警告称,其前沿 AI 模型的网络安全能力正在加速提升,即将发布的模型很可能达到其安全框架中定义的"高"风险级别。报告显示,今年 8 月 GPT-5 在网络安全"夺旗"(capture-the-flag)演习中的得分仅为 27%,而 11 月发布的 GPT-5.1-Codex-Max 的得分已飙升至 76%。OpenAI 表示:"我们预计即将发布的 AI 模型将继续沿着这一轨迹发展。为此,我们正在规划和评估,假设每个新模型都可能达到我们安全准备框架所定义的'高'级别网络安全能力。""高"风险是该框架中仅次于"关键"的第二高级别,达到"关键"级别的模型将被认为不安全,不能公开发布。OpenAI 网络安全主管 Fouad Matin 在独家采访中表示,推动这一风险等级的关键因素是模型能够长时间自主工作的能力,这使得暴力破解攻击成为可能。不过他也指出,这类依赖长时间运行的攻击相对容易防御,"在任何有防护的环境中,这种攻击都会被轻易发现"。要点二:成立前沿风险委员会并推出安全工具 Aardvark,加强跨行业网络安全防御为应对不断上升的网络安全风险,OpenAI 宣布采取多项措施,包括依赖访问控制、基础设施加固、出口控制和监控等手段。公司将成立一个独立的"前沿风险委员会"(Frontier Risk Council),这是一个咨询小组,将"汇集经验丰富的网络防御专家和安全从业者,与 OpenAI 团队紧密合作"。此外,OpenAI 正在私密测试一款名为 Aardvark 的工具,供开发者使用以发现其产品中的安全漏洞。开发者需要申请才能访问 Aardvark,该工具已经发现了一些关键漏洞。OpenAI 还计划推出一个"受信任访问计划"(trusted access program),为从事网络防御工作的合格用户提供分级访问增强功能的权限。这并非 OpenAI 首次发出类似警告,今年 6 月公司曾就生物武器风险发布警告,随后 7 月发布的 ChatGPT Agent 确实达到了"高"风险级别。OpenAI 表示,领先的 AI 模型在发现安全漏洞方面越来越强大,不仅限于 OpenAI 的模型,因此公司正在加强跨行业合作,包括通过 2023 年与其他领先实验室共同成立的"前沿模型论坛"(Frontier Model Forum)来应对网络安全威胁。

0 阅读:0
秦始皇看科技

秦始皇看科技

感谢大家的关注