苹果 AI 揭秘:自研大模型会怎么用,和 OpenAI 是怎么合作的?

AIGC动态6个月前发布 Founder Park
932 0 0
苹果 AI 揭秘:自研大模型会怎么用,和 OpenAI 是怎么合作的?

 

文章摘要


【关 键 词】 AI技术苹果公司合作模式用户体验隐私保护

苹果公司在2024年的全球开发者大会(WWDC)上展示了其自研的大型人工智能(AI)模型,并与OpenAI展开了合作。腾讯科技的记者在会后发现了两份关键资料,一份是苹果官网发布的技术文档,另一份是苹果两位高级副总裁的闭门对话记录。通过分析这些资料,可以深入了解苹果自研大模型的竞争力以及与OpenAI的合作细节。

苹果自研的AI模型表现出色,其端侧的3B(30亿参数)小模型在性能上与其他主流7B模型相当,而云端大模型则与GPT-4 Turbo不相上下。这表明苹果已经具备了独立构建内部闭环AI系统的能力,不再需要依赖外部模型公司。此外,苹果还在端侧模型上进行了大量优化,使其能够在8G内存的iPhone 15 Pro上运行,这在工程能力上超越了竞争对手。

尽管苹果自研的大模型能力很强,但公司仍选择与OpenAI合作,以提供更丰富的AI服务。然而,OpenAI并没有为苹果的AI系统提供专有支持,两者保持独立。苹果的AI系统完全由自研模型支持,而OpenAI的ChatGPT则作为外部调用的模型之一。这种合作模式类似于与其他第三方大模型公司的合作,苹果可能会在未来与其他语言模型(LLM)提供商合作,允许用户选择外部LLM。

苹果与OpenAI的合作主要是为了利用ChatGPT等大模型的有趣功能,丰富用户体验例如,用户可以使用Mac或iPhone向ChatGPT发送查询,请求其编写电影剧本等。在设计集成时,苹果采取了隐私优先的原则,确保未经用户许可,不会将任何用户数据发送给OpenAI。

此外,苹果的AI功能目前只能在iPhone 15 Pro及以上机型上使用,这可能会引发一波新的换机潮。虽然iOS 18系统升级适用于iPhone X以上的所有机型,但AI功能需要更强大的硬件支持。这并非苹果有意限制老用户,而是因为端侧大模型的运行需要足够的内存和算力。

综上所述,苹果在AI领域取得了显著的进展,其自研大模型的性能已经达到了行业领先水平。与OpenAI的合作则为用户提供了更多样化的AI服务,同时保持了对用户隐私的尊重。未来,苹果可能会继续探索与更多第三方AI模型的合作,为用户提供更加个性化和智能化的体验。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 5632字 | 23分钟 ]
【原文作者】 Founder Park
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...