IT之家 2 月 4 日消息,Meta 公司首席执行官马克・扎克伯格曾承诺,有朝一日将把通用人工智能(AGI)—— 即能够完成人类所能完成任何任务的人工智能 —— 公开提供给大众。然而,根据 Meta 最新发布的政策文件,该公司在某些情况下可能会限制其内部开发的高性能人工智能系统的发布。
这份名为“Frontier AI Framework(前沿人工智能框架)”的文件,明确了两种 Meta 认为发布风险过高的 AI 系统类型:“高风险”系统和“关键风险”系统。按照 Meta 的定义,这两种系统都具备协助实施网络攻击、化学攻击和生物攻击的能力,区别在于“关键风险”系统可能导致“在拟议的部署环境中无法缓解的灾难性后果”,而“高风险”系统虽可能使攻击更容易实施,但不如“关键风险”系统那样可靠或稳定。
IT之家注意到,Meta 在文件中列举了一些具体攻击场景,例如“对遵循最佳实践保护的企业级环境进行端到端自动化入侵”以及“高影响力生物武器的扩散”。Meta 承认,其文件中列出的潜在灾难性事件远非详尽,但这些是 Meta 认为“最紧迫”且最有可能因发布强大 AI 系统而直接引发的事件。
值得注意的是,Meta 在评估系统风险时,并非仅依赖单一的实证测试,而是综合内部和外部研究人员的意见,并由“高级别决策者”进行审查。Meta 表示,这是因为目前评估科学尚未“足够强大,以提供决定系统风险性的明确量化指标”。
如果 Meta 判定某个系统为“高风险”,该公司将限制系统在内部的访问权限,并在实施风险缓解措施以将风险降至“中等水平”之前,不会发布该系统。而如果系统被判定为“关键风险”,Meta 将采取未具体说明的安全防护措施,防止系统被非法获取,并暂停开发,直到系统能够被降低危险性为止。
Meta 表示,其“前沿人工智能框架”将随着人工智能领域的变化而不断演变。此前,Meta 已承诺在本月的法国人工智能行动峰会上提前发布该框架。这一框架似乎是对公司“开放”开发系统方法受到的批评的一种回应。Meta 一直采用将人工智能技术公开提供(尽管并非通常意义上的开源)的策略,这与选择将系统置于 API 背后的 OpenAI 等公司形成对比。
在文件中,Meta 表示:“我们相信,在考虑开发和部署先进人工智能的利弊时,有可能以一种既能保留该技术对社会的益处,又能保持适当风险水平的方式,将该技术提供给社会。”
还没有评论,来说两句吧...