原文作者:华映资本
作者简介:国内领先的创业投资机构,关注数字娱乐、消费升级、企业服务和科技等领域,全力以赴寻找其中优秀的创业者。
微信号:MeridianCapital
关键词:超级对齐、开源闭源、有效加速、AGI时代、大模型
文章摘要:
OpenAI发布了一份名为“准备框架”的安全指南,旨在帮助跟踪、评估、预测和防范AI模型相关的风险。该指南要求团队每月向内部安全咨询小组发送报告,并由该小组向OpenAI的高层提交建议。这一举措旨在弥补前沿人工智能风险研究的不足,并使安全思维系统化。有报道称,OpenAI的首席科学家Ilya Sutskever领导的团队在今年早些时候取得了技术突破,构建了一个名为Q*的新模型,该模型能够解决基本的数学问题。这一突破引发了内部的争议,一些员工担心这一技术可能会威胁人类。然而,目前关于Q*的具体细节尚不清楚。
对于AI的发展,有人支持有效加速主义,即加快技术发展的速度,而有人支持超级对齐主义,即确保AI的发展与人类的利益保持一致。此外,开源和闭源、非营利和营利也是AI公司需要平衡的问题。
关于AGI时代的到来,有人认为它已经很近了,甚至可能在2030年之前就会到来。AGI的发展将对人类社会产生巨大影响,包括社会分层、资源垄断等问题。然而,也有人认为AGI对人类的影响并不可怕,因为它没有主观意识,无法在物理世界与人类抗衡。此外,AGI的发展还受到技术和非技术因素的限制。
总的来说,AI的发展带来了许多挑战和机遇,需要在技术、商业和伦理等方面进行平衡和探索。
原文链接:阅读原文
原文字数:10917
阅读时长:37分钟
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...