标签:深度学习
Ilya Sutskever在NeurIPS炸裂宣判:预训练将结束,数据压榨到头了(全文+视频)
Ilya Sutskever,OpenAI的联合创始人和前首席科学家,在NeurIPS 2024会议上发表了演讲,提出了对人工智能发展的深刻见解。他预测,由于可用的新数据接近枯竭...
Ilya Sutskever发声:预训练将结束,数据压榨到头了
Ilya Sutskever,OpenAI的联合创始人和前首席科学家,在离开公司后创办了自己的人工智能实验室Safe Superintelligence,并在NeurIPS 2024会议上发表了演讲。...
李飞飞:World Labs这样实现「空间智能」
斯坦福大学教授李飞飞因其在人工智能领域的贡献而广为人知,尤其是她对“空间智能”的提倡,这一概念正在成为AI发展的新方向。李飞飞在深度学习革命中扮演了关...
LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年
自2017年Transformer模型问世以来,其核心机制“注意力”已成为AI领域的核心技术,尤其在自然语言处理中占据主导地位。然而,关于注意力机制的起源存在争议。一...
Greg Brockman又做了一件伟大的事情
OpenAI总裁Greg Brockman在社交媒体上分享了他的假期生活,期间他与Arc Institute团队合作,致力于训练基于DNA的模型。Brockman对深度学习技术在医学和医疗保...
被忽略的起点?Karpathy揭秘最初的注意力论文被Transformer光芒掩盖的故事
AI研究者Andrej Karpathy最近在推特上分享了注意力机制背后的故事,揭示了这一概念的起源和发展。他指出,Dzmitry Bahdanau、Kyunghyun Cho和Yoshua Bengio的...
流式深度学习终于奏效了!强化学习之父Richard Sutton力荐
阿尔伯塔大学等机构的研究者提出了一种名为stream-x的深度强化学习算法,旨在解决流式深度强化学习中的样本效率问题,即流式障碍。流式障碍是指流式深度强化...
遗憾不?原来百度2017年就研究过Scaling Law,连Anthropic CEO灵感都来自百度
在人工智能领域,Scaling Law是一个关键概念,它描述了深度学习模型的泛化误差和模型大小随着训练集规模的增长而呈现出可预测的幂律关系。这一概念最早被百度...
Scaling Law百度最早提出?!OpenAI/Claude都受它启发,Ilya出现在致谢名单中
在深度学习领域,Scaling Law的概念最早由百度在2017年提出,而非后来的OpenAI。这项研究由吴恩达领导的百度硅谷人工智能实验室(SVAIL)系统团队进行,探讨...
英伟达RISC-V,鲜为人知
英伟达在RISC-V领域的深耕已久,自2015年选择RISC-V作为其专有Falcon MCU的继任架构以来,英伟达已累计量产约30亿颗基于RISC-V内核的芯片,并预计到2024年将...