时间:2026年5月5日
地点:美国
人物:OpenAI、UC伯克利CHAI实验室、UK AISI
事件详情:五一假期前,AI社区被一篇名为《不可压缩知识探针》的论文刷屏,声称通过黑盒探测法推算出GPT-5.5拥有近10万亿参数。然而,仅仅几天后,来自UC伯克利CHAI实验室的Lawrence Chan和UK AISI的研究员Ben Sturgeon对这篇论文进行了深挖,发现存在严重的逻辑与代码偏差。修复这些问题后,GPT-5.5的参数约为1.5万亿,而非之前传的10万亿。
背景:原始论文声称GPT-5.5达9.7万亿参数,Claude Opus 4.7达4.0万亿参数,o1达3.5万亿参数。这个数据瞬间引爆社交媒体。然而,研究者发现原论文在计算小模型得分时偷偷将负分归零,这个操作让小模型得分大幅下降,使原本陡峭的得分-参数拟合曲线变得平缓。修正后估算的GPT-5.5规模直接从9.7T暴跌至1.5T。此外,研究者发现约25%的专家知识题存在歧义,部分标准答案本身就是错的。
影响:
- GPT-5.5参数规模从10万亿缩水至1.5万亿,但仍属业界顶尖水平
- AI研究方法论引发反思,黑盒探测法的可靠性受到质疑
- 原作者坦言论文是AI辅助下4天完成的早期探索,AI写论文研究AI引发争议
- 大模型参数规模的透明度和验证机制成为行业关注焦点
总结:GPT-5.5参数真相的揭示反映了AI研究中方法论严谨性的重要性。原始病毒式论文通过黑盒探测法声称GPT-5.5拥有近10万亿参数,但经专业研究者深挖发现存在严重的逻辑漏洞和代码偏差。修正后实际参数约为1.5万亿,虽然较之前传闻大幅缩水,但仍属业界顶尖水平。这一事件凸显了大模型研究中的透明度问题,也为AI社区提供了方法论层面的重要警示。原作者坦言这是AI辅助下4天完成的早期探索,AI写论文研究AI的闭环现象本身也值得关注和反思。
参考来源:
https://hub.baai.ac.cn/view/54439
https://www.sohu.com/a/1017911761_122014422
https://www.toutiao.com/article/7635593344546046516/






