鞭牛士报道,1月29日消息,据外电报道,OpenAI的一位前安全研究员表示,他对人工智能的发展速度非常担心,并警告说该行业正在对这项技术进行非常冒险的赌博。
史蒂文·阿德勒对那些寻求快速开发通用人工智能(AGI)的公司表示担忧。AGI 是一个理论术语,指的是能够匹敌或超越人类的任何智力任务的系统。
阿德勒于 11 月离开 OpenAI,他在 X 上的一系列帖子中表示,他在这家美国公司经历了一段疯狂的旅程,并且会怀念这里的很多部分。
然而,他表示,这项技术发展得太快,令人们对人类的未来产生了怀疑。
「如今人工智能的发展速度让我感到十分害怕。」他说。「当我想到我将在哪里养育孩子,或者为退休存多少钱时,我不禁想知道:人类能达到那个水平吗?」
诺贝尔奖得主杰弗里·辛顿 (Geoffrey Hinton) 等一些专家担心,强大的人工智能系统可能会逃避人类的控制,从而带来灾难性的后果。而 Meta 首席人工智能科学家 Yann LeCun 等其他人则淡化了这种生存威胁,称人工智能实际上可以拯救人类免于灭绝。
根据阿德勒的领英个人资料,他在 OpenAI 的四年职业生涯中领导了首次产品发布和更具推测性的长期 AI 系统的安全相关研究。
谈到 OpenAI 的核心目标 AGI 的发展,阿德勒补充道:AGI 竞赛是一场风险极大的赌博,负面影响巨大。
阿德勒表示,没有一个研究实验室能够解决人工智能协调问题(即确保系统遵循一套人类价值观的过程),而业界的发展速度可能太快,无法找到解决方案。
「我们跑得越快,人们及时找到它的可能性就越小。」
与此同时,中国的 DeepSeek 公司也在寻求开发通用人工智能,该公司推出了一种可以与 OpenAI 技术相媲美的模型,尽管其开发资源明显较少,但此举震惊了美国科技界。
阿德勒警告称,该行业似乎陷入了非常糟糕的平衡,并表示需要真正的安全法规。
「即使一个实验室真正想要负责任地开发 AGI,其他实验室仍然可以偷工减料来赶上,这可能是灾难性的。」
我们已经联系 Adler 和 OpenAI 征求意见。
还没有评论,来说两句吧...