作者 | 连冉编辑 | 郑玄 即将上映的好莱坞科幻电影《AI 创始者》中,一个原本为人类服务的人工智能在洛杉矶引爆了核弹。 比电影更加科幻的是,现实中,AI 公司们已经开始担忧起这样的场景真的出现在现实世界。 周中,OpenAI表示出于对AI系统安全性的考虑,公司正在成立专门团队应对前沿 AI 可能面临的「灾难性风险」,其中包括核威胁。 事实上,其 CEO Sam Altman 一直担忧 AI 可能对人类构成「灭绝性」威胁,此前曾在包括美国国会咨询的多个场合下呼吁加强 AI 类的监管。不过,包括 Meta 科学家 Yann LeCun 在内的一批科学家则对 AI 监管持不同观点,后者认为当前 AI 能力仍然有限,过早监管不仅只会让大公司受益,也会扼杀创新。 这突显了业内对前沿 AI 监管仍存在分歧。监管过早可能会制约技术发展,但缺乏监管又将难以应对风险。如何在技术先行和防范监管间取得平衡,使AI既高效发展又安全可控,仍然属于业界难题。 AI,前沿还是危险 本周四,OpenAI 在一份更新中表示,出于对 AI 系统安全性的考虑,公司正在组建新团队「准备就绪 (Preparedness)」来跟踪、评估、预测「前沿模型」的发展,以防止所谓的「灾难性风险」,包括网络安全问题以及化学、核和生物威胁。 图片来源:OpenAI 官网 该团队将由 Aleksander Madry 领导,他任 MI
...
继续阅读
(55)