大模型
LLM,VLM,模型
能炼10万亿参数模型!黄仁勋发布全新架构GPU,性能提升30倍,H100已成过去时
在GTC 2024发布会上,英伟达CEO黄仁勋宣布了一系列新产品,包括目前最强大的AI芯片Blackwell B200、NIM推理引擎、人形机器人平台Project GR00T和Omniverse的...
英伟达推「万亿参数」GPU,继续加速「AGI 时代」
在的上,创始人兼CEO引领了一场关于和的讨论。黄仁勋的出场引发了现场观众的热烈欢呼,他以打破了会场的紧张气氛,让人们对接下来的内容充满期待。
重磅!英伟达官宣全球最强AI芯片:性能提升 30 倍,并将重新设计整个底层软件堆栈
在美国加利福尼亚州圣何塞的GTC 2024大会上,英伟达发布了一系列新的超级芯片,包括采用Blackwell架构的B200和GB200系列芯片。这些芯片被誉为迄今为止功能最...
使用大模型进行股票预测,收益率16.6%,还会自我反思和给出合理解释
本文介绍了一种名为Summarize-Explain-Predict (SEP)的框架,该框架使用大型语言模型(LLMs)生成可解释的股票预测。SEP框架通过自我反思的代理和Proximal Po...
如何把大量物理知识塞给AI?EIT和北大团队提出「规则重要性」概念
深度学习模型因其在从大量数据中学习潜在关系的能力而彻底改变了科学研究领域。然而,这些纯粹依赖数据驱动的模型存在局限性,如过度依赖数据、泛化能力受限...
拖拽P图技术又升级了:StableDrag更稳、更准,南大、腾讯联合打造
这篇文章介绍了一系列关于图像编辑的研究成果,其中包括了 DragGAN、DragDiffusion 和 StableDrag 三个项目。首先介绍了 DragGAN 项目,该项目通过拖拽鼠标实...
ICLR 2024 | 无需训练,Fast-DetectGPT让文本检测速度提升340倍
以下是使用HTML元素标记的重点词语和句子:近年来大语言模型的快速发展对人类社会产生了深远影响,但其误用也带来了虚假信息、剽窃等问题。现有的机器生成文本...
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
马斯克旗下的大模型公司xAI宣布正式开源了3140亿参数的混合专家(MoE)模型「Grok-1」,这是目前参数量最大的开源大语言模型。Grok-1模型从头开始训练,没有...
没等来OpenAI,等来了Open-Sora全面开源
机器之心编辑部近期报道了OpenAI Sora视频生成模型的开源进展。Sora因其出色的视频生成效果而受到全球关注。在成本降低46%的Sora训练推理复现流程发布两周后...
AI大模型控制红绿灯,港科大(广州)智慧交通新成果已开源
香港科技大学(广州)的研究团队提出了一个名为LLMLight的框架,用于实现交通信号控制(TSC)。该框架结合了大模型的泛化能力和人类直觉的推理和决策过程,以...