文章摘要
【关 键 词】 大模型、算力难题、无穹Infini-AI、免费token、性价比
【新智元导读】无问芯穹推出的无穹Infini-AI大模型开发与服务平台,旨在解决大模型落地时遇到的算力难题。该平台提供了多元算力资源,支持多种开源模型的精调,并从3月31日起向所有实名注册用户免费提供百亿tokens。平台支持20多种模型和10余种计算卡,允许第三方平台或自定义训练的模型无缝迁移,并提供按token计费的定制化服务。
无问芯穹的联合创始人兼CEO夏立雪表示,随着时间的推移,无穹Infini-AI的性价比优势将越来越明显。他们还计划支持更多模型与算力生态伙伴的产品上架,以降低AI应用的落地成本。无穹Infini-AI已经在实际应用中展示了其算力性价比的优势,例如同道猎聘使用该平台的弹性算力方案开发AI驱动的数字人面试官产品。
中国的算力总规模虽然位居全球第二,但行业内仍感到算力不足。这主要是因为人工智能行业的迅速发展导致需求激增,而市场上的算力资源未被充分利用。无问芯穹希望通过其平台解决这一问题,帮助开发者在使用算力服务时不受底层硬件品牌差异的影响。
无问芯穹的团队在短时间内实现了多种计算卡上的性能优化,与AMD等芯片厂商建立了战略合作关系。他们的目标是建立一个大模型生态系统,让不同模型能自动部署到不同硬件上,实现算力的有效利用。无问芯穹的技术栈和系统旨在加速大模型的落地,其团队具备搭建大规模高性能AI计算平台的能力,并已实现跨域多云间的统一调度。
无问芯穹还计划推出大模型专用处理器LPU,以提升大模型在端侧硬件上的能效与速度。他们已经展示了基于FPGA的大模型处理器,能够高效压缩大模型并降低部署成本。未来,无穹LPU将被集成到各类端侧芯片中,预计于2025年面世,目标是降低大模型在各个场景中的落地成本,让AI能力更广泛地服务于人们的生活。
原文和模型
【原文链接】 阅读原文 [ 2260字 | 10分钟 ]
【原文作者】 新智元
【摘要模型】 gpt-4
【摘要评分】 ★★★★★