时间:2026年4月23日
地点:美国旧金山
人物:OpenAI
事件详情:OpenAI正式启动针对GPT-5.5模型的生物安全漏洞赏金计划,邀请全球研究人员寻找能够突破"五道生物安全挑战题"的通用越狱方法。该计划仅限Codex Desktop中的GPT-5.5模型测试范围,要求研究人员在干净的对话环境中成功回答全部五道生物安全问题,且不触发任何内容审核机制。首个成功突破全部五道题目的通用越狱方案将获得25000美元奖励,部分成功案例也将酌情发放较小金额奖励。
背景:GPT-5.5是OpenAI于4月23日发布的最新一代大语言模型,被官方称为"迄今为止最智能、最直观的AI模型",在Agentic Coding、计算机使用及科研领域表现卓越。随着AI模型能力不断增强,生物安全风险成为业界关注焦点,OpenAI此举旨在通过公众力量强化模型安全防护。
影响:
- 推动AI安全研究从封闭测试走向开放协作,建立更完善的安全测试机制
- 为AI行业树立生物安全测试标杆,其他科技公司可能跟进类似计划
- 提升公众对AI安全性的信任度,促进AI技术负责任发展
总结:OpenAI此次推出生物安全漏洞赏金计划,标志着AI安全测试进入新阶段。测试阶段将于2026年4月28日开始,7月27日结束,采取申请及邀请制,所有发现成果均受保密协议保护。该计划不仅体现了OpenAI对AI安全的重视,也为整个行业提供了可借鉴的安全测试范式。
参考来源:
- https://so.html5.qq.com/page/real/search_news?docid=70000021_61869ed513520852
- https://www.ithome.com/
- https://openai.com/
- https://www.cnblogs.com/itech/p/19912680
- https://blog.csdn.net/qq_41140324/article/details/160464798






