文章摘要
【关 键 词】 OpenAI、安全智能、SSI公司、超级智能、AI研究
前OpenAI首席科学家Ilya Sutskever宣布成立新公司Safe SuperIntelligence(SSI),致力于开发安全的超级智能。SSI将聚焦于安全超级智能的研究,不涉及其他商业产品开发。联合创始人包括曾在苹果公司担任AI负责人的Daniel Gross和在大型AI模型训练方面有显著能力的Daniel Levy。尽管SSI的具体技术路径未完全明确,它标志着一种回归OpenAI最初使命的尝试,即创建能在多任务上匹敌人类甚至超越人类的AI。与此同时,SSI面临着资金需求的巨大挑战和对大算力的需求,但凭借创始团队的实力与领域内的高兴趣,资金募集似乎不会是问题。SSI的目标是实现安全性和能力的同步提升,确保在扩展能力的同时保持系统的安全性。
原文和模型
【原文链接】 阅读原文 [ 1970字 | 8分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 generalv3.5
【摘要评分】 ★☆☆☆☆
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...