标签:性能优化
Rust 引领前端基建新潮流:字节跳动的深度应用实践 | QCon
张磊,字节跳动Web Infra前端负责人,在即将到来的QCon上海站上,将分享XR技术和人工智能如何为大前端领域带来新机遇和挑战。张磊的演讲将围绕Rust语言在前端...
Atom原班人马做了一款新AI IDE,非常酷
Zed AI 是一款新兴的 AI 驱动代码编辑器,由原 Atom 编辑器团队开发,旨在解决性能问题,提供比 VS Code 更优的编码体验。它基于 Electron 框架构建,支持跨...
MiniMax 基于 Apache Doris 升级日志系统,PB 数据秒级查询响应技术实践
MiniMax公司,作为通用人工智能科技领域的领先企业,自主研发了多种模态的通用大模型,包括具有万亿参数的MoE文本大模型、语音大模型和图像大模型。公司致力...
英伟达玩转剪枝、蒸馏:把Llama 3.1 8B参数减半,性能同尺寸更强
Meta公司推出的Llama 3.1系列模型,包括一个405B的超大型模型和两个较小的模型,虽然性能卓越,但对计算资源的需求巨大。为解决这一问题,业界开始关注小型语...
Fireworks 乔琳:AI 产品上市时间从五年压缩到五天,我们的秘诀是什么?
Fireworks AI是一家提供生成式人工智能(GenAI)推理和调优服务的SaaS平台,其目标是为客户提供快速、经济、高度定制化的解决方案。公司在7月完成B轮融资,筹...
LG开源韩语大模型Exaone 3.0,8万亿token训练数据
LG的AI研究机构推出了一款名为EXAONE 3.0的新型大模型,这是一款具有78亿参数的指令微调模型,经过8万亿token的高质量数据训练,支持韩语和英文两种语言,尤...
超9000颗星,优于GPT-4V!国内开源多模态大模型
国内开源社区OpenBMB推出了一款新型的多模态大模型——MiniCPM-V 2.6,该模型拥有80亿参数,在图像和视频理解方面表现出色,超越了包括GPT-4V在内的多个知名模...
新PyTorch API:几行代码实现不同注意力变体,兼具FlashAttention性能和PyTorch灵活性
机器之心报道了PyTorch团队为解决注意力机制实现中的超立方体问题而引入的FlexAttention。注意力机制在机器学习中至关重要,但现有的实现如FlashAttention虽...
阿里开源新语音模型,比OpenAI的Whisper更好!
阿里巴巴公司在Qwen-Audio的基础上推出了新一代的开源语音模型Qwen2-Audio,该模型在多个方面进行了显著的优化和改进。Qwen2-Audio模型包含基础版和指令微调...
思特威正式发布子品牌飞凌微,首发产品定位智驾视觉处理
思特威(SmartSens,股票代码688213)近日宣布成立全资子公司飞凌微电子(Flyingchip™),并发布了飞凌微M1车载视觉处理芯片系列。该系列包括M1(Camera ISP...