跨越AGI,Ilya官宣创业!我要的是「核安全」,SSI剑指安全超级智能

AIGC动态5个月前发布 AIera
640 0 0
跨越AGI,Ilya官宣创业!我要的是「核安全」,SSI剑指安全超级智能

 

文章摘要


【关 键 词】 AI安全超级智能技术创新团队招聘伦理关注

Ilya Sutskever,OpenAI的关键人物,宣布离开并创立了一家名为Safe Superintelligence Inc(SSI)的新公司,专注于开发安全的超级智能技术。这一消息在社交媒体上迅速传播,获得了大量关注和支持。

SSI的核心理念是实现安全的超级智能,这被Ilya视为“我们这个时代最重要的技术问题”。公司的目标是构建一个能够确保安全性的超级智能系统,同时推进技术能力的发展。Ilya强调,SSI将通过革命性的工程和科学突破来解决安全性和能力的技术问题,并确保安全性始终领先。

SSI的商业模式和团队构建都围绕着实现这一目标进行。公司在美国帕洛阿尔托和特拉维夫设有办事处,正在积极招聘顶尖的技术人才。Ilya和其他联合创始人,包括Daniel Gross和Daniel Levy,邀请全球的优秀工程师和研究者加入SSI,共同解决这个时代的重要技术挑战。

Daniel Levy在2022年加入OpenAI,领导了优化团队,并在斯坦福大学获得了计算机科学博士学位,研究领域包括机器学习、优化和隐私。他的加入为SSI带来了宝贵的专业知识和经验。

SSI的成立不仅是Ilya个人职业生涯的一个重要转折点,也代表了AI领域对于安全和伦理问题日益增长的关注。随着技术的发展,如何确保AI系统的安全性和对人类社会的积极影响,成为了全球范围内亟待解决的问题。SSI的愿景和努力,有望为这一领域带来新的视角和解决方案。

豆包-智能助手

原文和模型


【原文链接】 阅读原文 [ 3538字 | 15分钟 ]
【原文作者】 新智元
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明

相关文章

暂无评论

暂无评论...