“开源模型验货官”Perplexity,给Kimi K2盖了个戳

AI-Agent10小时前发布 Si-Planet
98 0 0
“开源模型验货官”Perplexity,给Kimi K2盖了个戳

 

文章摘要


【关 键 词】 AI开源模型PerplexityKimi K2自主研究

Perplexity作为AI搜索领域的领先者,其模型选型策略对全球开发者具有重要风向标意义。近期,Perplexity宣布将纳入Kimi K2模型,这一决策再次引发开源社区的热议。Perplexity的选型标准不仅关注技术优劣,更注重模型在真实产业环境中的表现。AI搜索作为最接近“真实世界任务”的试炼场,对模型的实时响应和低延迟有着极高要求。Kimi K2的MoE架构在vLLM + FP8实测中展现出卓越性能,输出速度比前代模型R1快一倍,且单位成本更低,成为高并发场景下经济与性能的最佳平衡点。

Perplexity的CEO Aravind Srinivas曾明确表示,模型选型的核心在于用户体验和性能的平衡。他举例说明,GPT-4.5的解码速度仅为11个token/秒,远低于Perplexity自研的Sonar模型的1200个token/秒,这直接影响了用户体验。因此,Perplexity在选择模型时,始终将实时响应和低延迟作为生死线。Kimi K2的优异表现,正是其能够被选中的关键原因。

Kimi K2的另一个显著优势在于其原生Agent能力。与传统的后训练插件不同,K2在预训练阶段就将Agent技能刻入权重,使其能够自主拆解任务、调用工具、执行代码,并最终生成完整报告。这种能力与Perplexity设想的“30分钟自主研究”功能完美契合。K2在训练阶段引入了数百万条合成Agent任务,覆盖搜索、浏览器、日历、Python、SQL等17种真实工具调用场景,使其能够在单一会话内连续编排16-20步操作,无需人类编写工作流。官方演示中,K2用16次IPython调用将13万行原始数据完成清洗、建模、绘图并输出交互网页报告,全程零人工干预,充分展示了其强大的自主研究能力。

Perplexity选择开源模型的更深层原因在于完整的控制权。拥有完整权重意味着Perplexity可以任意进行LoRA、RLHF、工具蒸馏等操作,无需担心调用频率、并发上限或隐私合规问题。K2采用MIT改协议,月活低于1亿即可商用,Hugging Face直接提供fp8/fp16全套权重,128K上下文窗口足够一次性处理整份财报。对Perplexity而言,这意味着“模型-索引-工具”三层架构可以完全私有化,不再受任何闭源条款约束。

Perplexity的模型选型战略经历了从依赖OpenAI的GPT模型到使用开源模型,再到基于开源模型自研的转变。2023年下半年,Perplexity推出基于Mistral-7b和LLaMA 2-70b构建的“pplx-7b-online”和“pplx-70b-online”,标志着其正式转向开源模型。2025年2月,DeepSeek-R1的引入让Perplexity完成了从“使用开源模型”到“基于开源模型自研”的关键跳跃,获得了完整的权重控制能力。随后,Perplexity深度调优Sonar模型,展现了自研能力的成熟,专门针对搜索问答场景进行优化。如今选择Kimi K2,正是这一战略的最新体现。

综合来看,Perplexity的模型选型必须在高性价比与高性能之间找到平衡,同时满足特定的产品需求。由于目前尚无开源模型能完全达到其标准,Perplexity只能阶段性地选择最优解,这种“择优而用”的策略反而让其成为了开源模型能力评判的重要风向标。Kimi K2的引入,不仅提升了Perplexity的性能和用户体验,也进一步巩固了其在AI搜索领域的领先地位。

原文和模型


【原文链接】 阅读原文 [ 1282字 | 6分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 deepseek-v3
【摘要评分】 ★★★☆☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...