Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线

AIGC动态9个月前发布 AIera
772 0 0
Hinton痛悔毕生工作,AGI十年内降临或导致「奥本海默」灾难!图灵巨头联手中国专家为AI划红线

 

文章摘要


【关 键 词】 AI安全深度学习AGI国际合作风险控制

近日,深度学习之父Geoffrey Hinton等AI领域的重量级人物齐聚中国,参与了被誉为中国版“布莱切利”峰会的北京AI安全国际对话。在会议上,专家们签署了《北京AI安全国际共识》,共同探讨了AI的风险红线和安全治理路线。Hinton表示对生成式AI的恐惧,并对自已的工作表示后悔,他担忧数字智能终将取代生物智能。Yoshua Bengio也指出AI安全与核武器问题相似,应通过国际条约控制AGI项目的扩散。

在会议上,专家们普遍认为AGI的实现是一种必然,可能在10年或20年后降临。Bengio强调,AI的能力强于人类的同时,也越来越危险。一旦AI系统失控,落入恶意的人或组织手中,后果将不堪设想。Hinton则提出,人工智能的数字计算优于人类大脑的生物计算,随着能源成本降低,数字智能取代生物智能的可能性增大。他建议投入更多资源确保AI安全。

与会专家们认为,AGI项目的扩散问题与核武器问题相似,应通过国际合作与多边治理来控制。他们提出,所有国家应共同管理一个AGI项目,以构建稳定的世界秩序。最终目的是在分享AI红利的同时避免人类的终结。会议最后达成共识,落实AI风险红线和治理路线,呼吁国际学术界和政府在安全方面加强合作。

原文和模型


【原文链接】 阅读原文 [ 3419字 | 14分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...