Meta 公司首席执行官马克・扎克伯格曾承诺将通用人工智能(AGI)公开提供给大众,但根据最新发布的“前沿人工智能框架”文件,Meta 将在某些情况下限制高性能AI系统的发布。该文件明确了两类高风险AI系统:“高风险”和“关键风险”系统。前者可能协助实施网络攻击,而后者可能导致灾难性后果,如生物武器扩散。
Meta 强调,评估系统风险不仅依赖实证测试,还会综合内部与外部研究人员的意见,并由高级别决策者审查。若判定为“高风险”,系统将限制内部访问权限,直至风险降至中等水平;若为“关键风险”,则会暂停开发并采取安全措施防止非法获取。
此举旨在平衡先进AI技术的社会益处与潜在风险,回应外界对公司开放开发策略的批评。Meta 表示,该框架将随人工智能领域的发展不断演变。
免责声明:本文内容由开放的智能模型自动生成,仅供参考。