Hinton、Bengio等联合中国专家达成AI安全共识:AI系统不应违反红线
模型信息
【模型公司】 OpenAI
【模型名称】 gpt-3.5-turbo-0125
【摘要评分】 ★★★☆☆
文章摘要
这篇文章报道了国内外研究者为了应对人工智能(AI)发展可能带来的挑战而展开合作的情况。随着人工智能的发展速度超出预期,现在用户只需输入简单提示就能完成以前看似困难的任务,但同时也应警惕AI可能带来的潜在威胁。知名学者曾签署公开信应对AI挑战,最近在北京举办的「北京AI国际安全对话」为中国和国际AI安全合作搭建了平台,会议达成了《北京 AI 安全国际共识》。共识内容包括人工智能风险红线,如自主复制或改进、权力寻求、协助不良行为者、欺骗等。确保这些红线不被越过需要共同努力,包括建立治理机制和研发安全技术。治理方面需要建立全面机制确保系统不违反红线,开发全面方法和技术防范风险,以及国际学术界合作解决技术和社会挑战。文章强调了避免人工智能可能带来的全球灾难性后果需要果断行动,强调了技术研究和国际监管机制相结合可以缓解风险并实现潜在价值。最后呼吁继续加强国际学术界和政府在安全方面的合作。
原文信息
【原文链接】 阅读原文
【阅读预估】 1671 / 7分钟
【原文作者】 机器之心
【作者简介】 专业的人工智能媒体和产业服务平台
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...