离开 OpenAI 后,Ilya 拿了 10 亿美金对抗 AI 作恶

AIGC动态3个月前发布 geekpark
505 0 0
离开 OpenAI 后,Ilya 拿了 10 亿美金对抗 AI 作恶

 

文章摘要


【关 键 词】 AI融资人才招聘安全AIAI威胁论技术监管

AI初创公司SSI获得巨额融资
由OpenAI前联合创始人Ilya Sutskever创立的AI初创公司SSI近日宣布获得10亿美元融资,投资方包括NFDG、a16z、红杉美国、DST Global和SV Angel等知名机构。融资完成后,SSI估值达到50亿美元。公司在融资信息中附带了招聘启事,显示出对人才的重视。SSI核心成员Gross透露,公司在招聘时更看重候选人的品行和能力,而非仅凭资历和经验。此外,SSI计划将资金用于建立安全AI模型的新业务,并专注于开发计算资源以构建模型。Sutskever表示,SSI的目标是构建尖端AI模型,挑战包括OpenAI、Anthropic和Elon Musk的xAI等竞争对手。SSI强调其专注于构建通往安全超级智能的直接途径,并正在组建由顶尖工程师和研究人员组成的团队。

Ilya Sutskever的转变:从引领AI到警惕AI
Ilya Sutskever曾是OpenAI的首席科学家,带领团队开发出全球领先的ChatGPT。然而,他在攀登技术高峰的同时,始终保持对技术的警惕,担心AI发展可能超出人类掌控。Sutskever的恩师、图灵奖得主Geoffrey Hinton评价他具有强烈的道德指南针,非常关心AI安全。2023年,Hinton离开谷歌,以便更自由地谈论AI的潜在风险。同年,Sutskever牵头成立OpenAI的“超级对齐”研究项目,旨在解决AI对齐问题,确保AI目标与人类价值观一致。但该项目未能持续,Sutskever于今年5月离开OpenAI,并与共同领导者Jan Leike一同解散超级对齐团队。Sutskever的离开反映了他与OpenAI高层在AI发展核心优先事项上的分歧。离职后,他在接受《卫报》采访时强调,AI有潜力创造无限稳定的独裁政权,因此需要确保AI目标与人类目标一致。

AI威胁论成为共识,Ilya决定亲自解决
随着AI技术的发展,全球对AI的警觉已成为共识。去年11月,首届全球AI安全峰会在英国举行,与会国共同发表《布莱切利宣言》,认为AI对人类构成潜在灾难性风险。尽管如此,各国在监管优先事项上仍存在差异,学界和业界对AI监管的看法也不一。Sutskever在纪录片中提到,技术进化后可能对人类安全造成隐患,因此AI的目标与人类目标一致变得极其重要。他决定亲自解决这一问题,成立了SSI公司,专注于开发安全的超级智能。Sutskever表示,只有将安全性和性能并重,通过革命性的工程和科学突破来解决技术问题,才能安心地扩大AI规模。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1937字 | 8分钟 ]
【原文作者】 极客公园
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★☆☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...