据《金融时报》报道,OpenAI大幅缩短了最新大型语言模型o3的安全测试周期,从以往的数月缩减至仅几天。知情人士透露,面对Meta、Google等竞争对手的压力,公司加速推出新模型,但安全评估时间不足可能带来潜在风险。
此前,GPT-4的安全测试耗时六个月,而o3模型的测试时间不足一周。业内人士担忧,压缩测试周期可能导致危险能力未被及时发现。目前,全球缺乏统一的AI安全测试标准,但欧盟《AI法案》即将实施,要求企业对强AI模型进行严格评估。
OpenAI曾承诺对模型进行深度安全测试,但实际执行有限。前员工指出,测试多基于早期版本,而非最终发布模型,可能影响安全性。尽管公司辩称自动化测试可确保安全,专家仍呼吁加强透明度与监管。