标签:神经网络

8/8/7分被NeurIPS拒稿,谢赛宁读博投的首篇论文,10年后获AISTATS 2025时间检验奖

第28届国际人工智能与统计学会议(AISTATS)于5月3日至5日在泰国举办,作为人工智能、机器学习与统计学交叉领域的重要国际会议,AISTATS致力于促进这些领域研...

突破瓶颈,嵌入式AI神经持续学习引擎—Replay4NCL

阿联酋大学、纽约大学阿布扎比分校和巴基斯坦国立科技大学的研究人员联合推出了一种名为Replay4NCL的高效内存重放方法,旨在解决嵌入式AI系统在动态环境中持...

Jeff Dean演讲回顾LLM发展史,Transformer、蒸馏、MoE、思维链等技术都来自谷歌

在苏黎世联邦理工学院的信息学研讨会上,谷歌首席科学家 Jeff Dean 发表了一场关于 AI 发展趋势的演讲,回顾了 AI 近十五年的发展历程,并展望了未来的可能性...

反向传播、前向传播都不要,这种无梯度学习方法是Hinton想要的吗?

反向传播作为深度学习的主流方法,近年来因其生物学不合理性、内存消耗大以及并行计算受限等问题,逐渐受到质疑。Geoffrey Hinton等人一直致力于寻找替代方案...

Anthropic亲自公开Claude脑回路!

Anthropic公司近期公布了一项关于大模型思考过程的研究,通过构建「AI显微镜」来识别模型中的活动模式和信息流动。这项研究旨在揭示像Claude这样的大语言模型...

强化学习也涌现?自监督RL扩展到1000层网络,机器人任务提升50倍

普林斯顿大学与华沙理工的研究表明,将对比强化学习(CRL)扩展到1000层可以显著提升性能,在某些机器人任务中性能提升高达50倍。这一发现挑战了传统观点,即...

13年后,AlexNet源代码终于公开:带注释的原版

谷歌首席科学家 Jeff Dean 宣布,谷歌与计算机历史博物馆(CHM)合作,共同发布了 AlexNet 的源代码,并将长期保存这些代码。AlexNet 是一个由多伦多大学研究...

驯服AI,更懂物理!何恺明团队提出全新DHN「去噪哈密顿网络」

何恺明团队提出的去噪哈密顿网络(DHN)将哈密顿力学融入神经网络,突破了传统局部时间步的限制,并通过独特的去噪机制在物理推理任务中表现出色。传统机器学...

苹果新芯片,太猛了

Apple发布了迄今为止最强的芯片M3 Ultra,标志着其在芯片技术上的又一重大突破。M3 Ultra采用了创新的UltraFusion封装架构,通过超过10,000个高速连接点将两...

“造假”齐白石的《虾》,被国产AI一眼识破!

商汤科技最新发布的日日新融合大模型交互版(SenseNova-5o,简称“新5o”)以其多模态能力显著提升了与AI交互的质量。该模型能在2秒内响应,具有逼真的语气助词...
1 2 3 6