“高性能”的搜索结果
黄仁勋组局,Transformer七子首次重聚对谈 | 中文实录
2017年,一篇名为《Attention is All You Need》的论文引入了基于自注意力机制的Transformer模型,这一创新架构摆脱了传统的RNN和CNN的...
英伟达推出NeMo,极大简化自定义生成式AI开发
这篇文章介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的...
如何从头开始编写LoRA代码,这有一份教程
本文介绍了一种名为 LoRA(Low-Rank Adaptation) 的微调技术,用于微调大语言模型(LLM)。LoRA 是一种流行的技术,通过仅更新一小部分...
黄仁勋加码,人形机器人开启“灵魂”竞逐
在英伟达GTC大会上,创始人兼CEO黄仁勋推出了人形机器人通用基础模型Project GR00T和基于NVIDIA Thor系统级芯片(SoC)的新型人形机器人...
百万token上下文窗口也杀不死向量数据库?CPU笑了
本文探讨了大语言模型中上下文窗口技术与检索增强生成(RAG)技术的对比,以及向量数据库在AI大模型时代的重要性和应用。随着大语言模型...
Nvidia推出Blackwell B200 GPU,是目前最强的人工智能芯片
Nvidia在昨日的GTC活动上展示了其最新的Blackwell GPU架构,这是继Hopper平台之后的重大更新。Blackwell架构旨在显著提高处理大规模AI模...
英伟达推出NIM,可优化推理以实现大规模AI模型部署
本文介绍了专注于AIGC领域的专业社区,关注微软 & OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。ChatGPT...
英伟达发布GB200 NVL72,将万亿参数大模型推理效率提升30倍
3月19日,英伟达在“2024GTC”大会上发布了新一代AI专用GPU GB200 NVL72,专门面向万亿参数大模型训练和推理。这款产品在训练MoE(专家混...
ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识
近年来,脉冲神经网络(SNN)和脑启发的神经形态计算因其低功耗特性而受到关注。神经形态计算模拟生物神经元的特性,如存内计算和事件驱...