文章摘要
OpenAI的联合创始人兼前首席科学家Ilya Sutskever宣布创办一家名为Safe Superintelligence Inc. (SSI)的新人工智能公司,专注于开发安全而强大的人工智能系统。Sutskever表示,构建安全的超级智能是当今最重要的技术问题。SSI的目标是创建一个安全的超级智能系统,并在此过程中避免短期商业压力的干扰。
SSI被描述为一家将安全和能力结合在一起的初创公司,旨在快速推进其人工智能系统的同时,始终将安全放在首位。Sutskever强调,SSI的业务模式将确保安全、保障和进步不受短期商业压力的影响,从而能够安心扩大规模。SSI的第一个产品将是“安全的超级智能”,在此之前,公司不会开发其他产品。
尽管SSI的运营理念引发了一些质疑,例如是否能够支付顶尖人工智能研究人员的薪酬,以及如何在合理时间内整合所需资源,但Sutskever表示筹集资金不会成为问题,并正在向业内感兴趣的人传达信息:SSI将在美国和以色列设立总部,目前正在招聘。
SSI的创始团队包括Sutskever、苹果前AI负责人Daniel Gross和前OpenAI技术人员Daniel Levy。Gross有丰富的研发、创业与投资经验,曾在苹果领导多年人工智能工作,并投资了多家知名技术公司。Levy在OpenAI时以训练大型人工智能模型而闻名,研究方向包括机器学习、优化和隐私。
Sutskever认为,大型语言模型将在安全超级智能系统中发挥重要作用,但SSI的目标是实现更强大的功能。SSI的人工智能系统将比目前的大型语言模型更具通用性和扩展性。Sutskever和Levy曾共同领导OpenAI的Superalignment团队,致力于使人工智能的行为和目标与人类的价值观保持一致,并防止超级智能人工智能失控。
Sutskever在辞职时表示,他相信OpenAI在Altman的领导下将打造出既安全又有益的AGI,但他也暗示将独自启动一个新项目,即现在的SSI。Sutskever花了数年时间考虑安全问题,并已经想到了一些方法。他强调,安全的超级智能应该具有不会大规模伤害人类的特性,并将基于自由和民主等价值观运作。
SSI的成立引发了广泛关注,尤其是在OpenAI员工频繁离职并创办新公司的背景下。SSI的三位创始人表示,开发安全的超级智能是公司的唯一重点,不受投资者收入要求的限制。SSI将是一个纯粹以研究为重点的组织,而不是OpenAI目前的商业模式。
尽管SSI尚未披露财务支持者和筹集金额,但其创始团队的背景和目标引发了业界的高度期待。许多人希望SSI能成为一个做开源AI产品的公司,并对其未来的发展充满期待。
原文和模型
【原文链接】 阅读原文 [ 2371字 | 10分钟 ]
【原文作者】 AI前线
【摘要模型】 gpt-4o
【摘要评分】 ★★★★★