标签:机器学习

LLM可解释性的未来希望?稀疏自编码器是如何工作的,这里有一份直观说明

稀疏自编码器(SAE)是一种在机器学习领域中越来越受重视的工具,它有助于解释和理解深度学习模型的工作原理。SAE的设计灵感来源于神经科学中的稀疏编码假设...

对话硅谷公司K-Scale:在车库里对抗烧钱的巨头们,带全人类一起造10亿机器人

K-Scale Labs是一家机器学习初创公司,致力于开发开源机器人AI平台,并推出了世界上首个消费级通用双足人形机器人Stompy。公司的目标是让全球拥有10亿个人形...

谷歌AI天气「神算」登Nature:30秒模拟22天天气,效率暴涨10万倍!

谷歌公司提出了一种新型的基于机器学习(ML)的大气环流模型NeuralGCM,该模型在气候建模领域取得了重大突破。NeuralGCM结合了传统的物理建模和人工智能技术...

全美TOP 5机器学习博士:痛心,实验室H100数量为0!同实验室博士用GPU得靠抢

在机器学习(ML)领域,高性能图形处理单元(GPU)是进行复杂计算和模型训练的关键资源。然而,近期一位美国顶尖五所高校之一的机器学习博士在Reddit上发帖,...

LeCun哈佛演讲PPT放出:唱衰自回归LLM,指明下一代AI方向

机器学习现状:LeCun指出,尽管机器学习在某些领域取得了显著进展,但与人类和动物相比,机器学习效率低下。例如,人类青少年可以在20小时内学会开车,而机器...

终于有人调查了小模型过拟合:三分之二都有数据污染,微软Phi-3、Mixtral 8x22B被点名

背景介绍:- 大型语言模型的推理能力提升是当前研究的重要方向。问题提出:- 许多研究使用GSM8k、MATH等测试集作为基准,但这些测试集可能受到训练数据集的污...

大模型一定就比小模型好?谷歌的这项研究说不一定

Google Research的一个团队近期对隐扩散模型(LDM)进行了大量实验研究,发现在预算有限的情况下,更大的模型并不总是更好。他们的研究成果发表在论文《Bigge...

多篇顶会一作却申博失败?斯坦福博士生亲述:AI领域太卷

这篇文章讲述了一位在顶级机器学习会议上发表多篇一作论文、为开源项目做出贡献的研究人员在申请博士课程时遭遇困难和挫折的经历。尽管他取得了一定的成就,...

详解Latte:去年底上线的全球首个开源文生视频DiT

上海人工智能实验室的研究团队在视频生成领域取得了重要突破,他们成功开发了名为Latte的视频DiT模型。这是全球首个开源的文生视频DiT,受到了广泛的关注和使...

ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景

天津大学深度强化学习实验室的研究团队推出了面向现实决策场景的 Uni-RLHF 平台,这是一个专为强化学习与人类反馈(RLHF)量身定制的综合系统实施方案。Uni-R...
1 2 3