国产 AI Infra 变革进行时:新势力正在崛起

文章摘要
DeepSeek 方法论在 AI 基础设施(AI Infra)领域的创新,推动了 AI Infra 软硬整合架构的突破,驿心科技便是这一趋势的代表之一。DeepSeek 近期开源了多个项目,如 FlashMLA、DeepEP、DeepGEMM、DualPipe 以及 3FS 系统,这些项目几乎覆盖了 AI Infra 底层计算、网络、存储的全方位优化,为 AI 训练和推理提供了重要参考。驿心科技的核心技术问题正是解决从存储到网络向 GPU 传输数据的效率问题,这一问题的解决对 AI 训练和推理至关重要。
驿心科技由前旷视科技创始合伙人吴文昊于 2023 年 9 月创立,致力于从基础架构层面进行研发。其解决方案基于 GPU 服务器本地存储与通用以太网络,提供了与传统智算基于 RDMA 的存储网络和商业训练存储相当的能力,同时大幅降低了模型落地成本,加速了部署进程。驿心的硬件完全采用标准企业服务器和网络,无需定制硬件、网络和软件,这使得其解决方案在效率和性价比上更具优势。
在 AI Infra 领域,架构重构和供应链重构为创业公司带来了新的机会。AI Infra 以 GPU 为中心,与传统云计算和 HPC(高性能计算)存在显著差异。云计算的计算、网络和存储并非专门为 AI 或 HPC 优化,而 AI 追求概率计算,HPC 则追求确定性高精度计算。这种差异使得云大厂难以提供最优化的底层 Infra,为驿心科技等创业公司提供了发展空间。
驿心科技的解决方案在多个层面展现了创新性。首先,其 Tier-0 存储方案充分利用 GPU 服务器内部存储,避免了构建专属存储集群和存储网络的需求,显著降低了模型落地成本,加速了部署进程。其次,驿心支持多云多数据中心的全局文件系统,实现了大模型的无缝上载与更新,提升了 AI 数据访问效率。此外,驿心的解决方案还具备智能数据分层和缓存机制,能够快速响应 AI 工作负载的需求,提升训练和推理速度。
在模型优化层面,驿心科技积极拥抱开源生态,为 DeepSeek 等通用模型的优化提供了坚实基础。通过结合算力、网络和分布式 KV Cache 等能力,驿心提高了 LLM(大语言模型)集群的吞吐量,同时通过 Tier-0/Tier-1 存储方案保证了模型与数据的可靠性。驿心的解决方案不仅解决了 AI 训练与推理的主要痛点,还为企业和科研机构减轻了经济负担,推动了人工智能模型从理论到实践的快速落地。
驿心科技目前重点布局三大领域:云和大模型、AI 研发类客户(如汽车、自动驾驶、机器人等)以及传统客户(如半导体、制造、金融、能源等)。通过与国内头部互联网大厂和比亚迪电子的合作,驿心正在逐步验证其技术能力,并为垂直行业提供定制化的 AI Infra 解决方案。
未来,驿心科技计划在多模态和端侧 AI 领域寻求更多突破。随着多模态数据量的快速增长,AI 存储将迎来巨大增长,而端侧 AI 的发展也将带来新的机遇。驿心科技的成功不仅依赖于技术创新的能力,还需要与行业内的其他团队合作,共同定义下一代 AI Infra 的发展方向。
原文和模型
【原文链接】 阅读原文 [ 2820字 | 12分钟 ]
【原文作者】 AI科技评论
【摘要模型】 deepseek-v3
【摘要评分】 ★★★★★