文章摘要
Ilya Sutskever,OpenAI的前首席科学家兼联合创始人,于6月20日凌晨在社交平台上宣布成立安全超级智能公司SSI(Safe Superintelligence)。SSI是全球首个专注于安全智能的实验室,其产品路线、商业模式、投资者和战略目标都围绕“安全”展开。Ilya强调了安全的重要性,并表示SSI将与OpenAI、微软、谷歌和Meta等科技巨头展开竞争。
SSI的创始团队包括Ilya Sutskever、苹果前AI主管Daniel Gross和OpenAI前产品安全优化主管Daniel Levy。团队成员在AI领域拥有丰富的经验和卓越的技术能力。Ilya在过去十年中参与了AI领域最重要的十篇论文中的七篇,显示了其在深度学习方面的顶尖水平。SSI目前处于招兵买马阶段,计划以小团队高效率的方式开发第一款产品。
SSI的成立引起了广泛关注,尤其是对其首款产品的期待。许多人希望SSI能够实现产品开源,完成OpenAI未能兑现的承诺。著名播客主持人Lex Fridman已经邀请Ilya进行深度访谈,讨论更多关于SSI的细节和Ilya的个人经历。特别是Ilya在去年11月发起的OpenAI CEO Sam Altman罢免事件,成为了讨论的焦点。Ilya的离开和再创业被视为AI领域的重要事件,许多人认为他有能力实现通用人工智能(AGI)甚至超级智能(ASI)。
尽管Ilya的再创业得到了广泛认可和期待,但也有一些质疑声。有人认为,在大模型领域需要大量资金支持的情况下,SSI在没有明确赚钱计划和产品规划目标的前提下,要实现AGI和超级智能的目标将面临巨大挑战。尽管SSI的目标是造福全人类,共享最好的技术,但随着资金的消耗,可能不得不向现实低头,转向闭源以加速商业化进程。
此外,SSI的名字也引发了一些吐槽,被认为有些刻意。对于产品的定位,许多人认为期待过高,毕竟AGI尚未实现,现在就要搞ASI,显得有些不切实际。尽管如此,Ilya的技术能力和团队的实力仍然让人们对SSI的未来充满期待。
原文和模型
【原文链接】 阅读原文 [ 2313字 | 10分钟 ]
【原文作者】 AIGC开放社区
【摘要模型】 gpt-4o
【摘要评分】 ★★★★★