百度点亮自研万卡集群,大模型应用拐点加速到来
![百度点亮自研万卡集群,大模型应用拐点加速到来](https://www.xuexiaigc.com/wp-content/uploads/article-images/a91e00e280ce500205.jpeg)
文章摘要
DeepSeek是一款以较少GPU芯片和低成本实现高性能的国产大模型,其迅速获得包括百度在内的主流云厂商支持。2月3日,百度智能云千帆平台正式上线DeepSeek-R1和DeepSeek-V3模型,并以大幅折扣提供限时免费使用服务,首日即吸引了超1.5万家企业调用,展示了百度构建多维大模型生态的努力。
作为国内首个正式点亮的自研万卡集群,昆仑芯三代标志着百度解决自身大模型发展的算力问题,同时也为国内产业提供了新的发展思路。在2024年,“降本”成为关键词,文心旗舰款等模型显著降价以推动大模型落地。由于算力成本高昂,百度等企业投入自研AI芯片如昆仑芯。百度基于多年积累,点亮了自研万卡集群,这不仅可以缩短模型训练周期,还能通过多任务并发与优化实现成本指数级下降。
万卡集群包含一万张以上计算加速卡,用于大模型的训练与推理。相比简单堆叠硬件,百度采用了一系列创新措施提升集群效能。其中,百舸平台历经多次升级,支持大模型训练推理、混训难题及多芯资源整合,为企业提供创建、开发、训练、推理全过程的解决方案,确保效率、速度、稳定和节省兼顾。
技术层面上,通过极致规模、高密互联特性,百舸实现了快速创建、开发测试直观监控、故障恢复分钟级别、超高精度网络监控以及跨地域高效通信。此外,针对推理需求,百舸还优化架构分离和负载分配策略,极大提高长文本推理效率。
多个机构和企业,如好未来、Vidu、上海交通大学、长安汽车,均基于百舸快速推进大模型相关研发及应用落地,表明该基础设施正切实转化为实际生产力。花旗银行预测中国模型的高效低成本将加速全球AI创新,推动2025年人工智能拐点到来。此次昆崙芯三代的成功点亮进一步提升了算力供应稳定性及成本优势,有望持续促进大模型应用在2025年的涌现。
原文和模型
【原文链接】 阅读原文 [ 3561字 | 15分钟 ]
【原文作者】 钛媒体AGI
【摘要模型】 qwen-max-2025-01-25
【摘要评分】 ★★★★★