“数据流”的搜索结果

清华大学获芯片领域重要突破!研制全球首款大规模光芯片,成果登Science
AI的进步和发展正面临着对计算芯片性能和能效的双重挑战。特别是在追求通用人工智能(AGI)的过程中,对计算设备的要求更是严苛。OpenAI...
大模型融合!最新「进化算法」全自动组合开源模型,刷榜多项基准测试
Sakana AI团队开发了一种新方法,能够自动组合不同的开源模型,创造出具有新能力的AI系统。这种方法基于集体智慧的概念,即未来的人工智...
离职谷歌的Transformer作者创业,连发3个模型(附技术报告)
去年8月,前谷歌研究人员David Ha和Llion Jones创立了位于日本东京的人工智能公司Sakana AI,其中Llion Jones是谷歌2017年经典研究论文...
模型合并就进化,直接拿下SOTA!Transformer作者创业新成果火了
这篇文章介绍了日本大模型公司提出的一种新颖的模型合并方法,旨在自动生成新的基础模型而无需进行梯度训练。他们使用进化算法引入了“进...
苏妈现身北京,AMD喊出了AI PC Yes!
AMD在北京举行了AI PC创新峰会,展示了其在中国AI PC生态系统中的发展势头。AMD宣布推出锐龙8040系列和8000G台式机解决方案,为众多品牌...
为什么说GPU再火,AI平台也少不了强力的CPU
本文讨论了AIGC(人工智能生成内容)的兴起对AI服务器市场的影响,特别是对专用加速芯片和AI加速服务器的需求。据统计,2023年全球AI服...
超越英伟达!字节跳动MegaScale如何实现大规模GPU的高效利用?
在2024年2月,字帖跳动发布了一篇关于大语言模型训练框架的论文《MegaScale: Scaling Large Language Model Training to More Than 10,0...
揭开Groq LPU神秘面纱:世界最快硬件加速器的底层架构设计!
Groq, 一家创业公司,因其自研的硬件加速器LPU(Language Processing Unit)一夜爆火,实现了500个token/s的推理速度,秒杀了ChatGPT。...
字节万卡集群技术细节公开:2天搞定GPT-3训练,算力利用率超英伟达Megatron-LM
字节跳动与北京大学合作的一篇新论文揭示了AI基础设施的重要性,并介绍了字节搭建的万卡集群,该集群能在1.75天内完成GPT-3规模模型(17...
Sora物理悖谬的几何解释
Sora作为一个视频生成模型,在龙年伊始引起了广泛关注。它声称能够模拟世界,但存在一些技术缺陷。本文从现代数学的角度,特别是整体微...
1 2 3 4