全球人工智能安全讨论进入关键拐点。根据美国“未来生命研究院”(Future of Life Institute, FLI)10月发布的最新声明,数百位AI研究者及多国知名公众人物联合呼吁全球政府立即暂停超级智能(Superintelligence)研发,直至确认其安全性与可控性。这份呼吁标志着AI治理议题从“伦理框架”正式转向“生存风险”层面。数据显示,超过60%的美国公众支持对高级AI实施强监管,52%明确反对在未验证安全性的情况下继续开发超智能系统,仅不到15%的受访者认为应维持当前的自由研发模式。这一比例反映出社会舆论已从“创新热潮”转向“谨慎观望”,科技进步的社会接受度正在经历结构性调整。签署联名信的包括苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)、企业家理查德·布兰森(Richard Branson)及前爱尔兰总统玛丽·罗宾逊(Mary Robinson),以及人工智能领域两位奠基人——杰弗里·辛顿(Geoffrey Hinton)与约书亚·本吉奥(Yoshua Bengio)。这份跨领域联合阵容显示出AI风险议题已从学术圈蔓延至政治与社会治理层面,成为全球公共议题之一。值得注意的是,一些行业领袖仍保持沉默。特斯拉与xAI创始人埃隆·马斯克(Elon Musk)未参与签署,Meta首席执行官马克·扎克伯格(Mark Zuckerberg)与OpenAI首
...
继续阅读
(21)