标签:机器学习

华人CV宗师黄煦涛高徒离职特斯拉,加入OpenAI!专攻多模态模型研究

程博文是一位华人科学家,曾在特斯拉自动驾驶部门工作,最近宣布将加入OpenAI的后训练团队,专注于多模态模型的研究。他毕业于伊利诺伊大学厄巴纳-香槟分校,...

RNN效率媲美Transformer,谷歌新架构两连发:同等规模强于Mamba

摘要:谷歌 DeepMind 最近推出了两种新的 AI 模型,Hawk 和 Griffin,它们在基础模型方面为 AI 领域提供了新的选择。这些模型是基于循环神经网络(RNN)的,...

对话OpenAI开发者关系主管:GPT-5前瞻,OpenAI的运作机制以及决策模式

在最近的一期播客深度对话中,OpenAI开发者关系主管Logan Kilpatrick与主持人Lenny Rachitsky进行了深入的交流。Logan分享了OpenAI的运作机制、决策模式以及...

对抗「概念飘逸」难题!谷歌发布全新时间感知框架:图像识别准确率提升15%

新智元报道了Google AI研究人员提出的新方法MUSCATEL(Multi-Scale Temporal Learning),旨在解决机器学习中的长期问题——概念漂移。概念漂移指的是数据分布...

Fine-tuning在垂直领域的最佳实践指南

摘要总结:本文介绍了深度学习和机器学习中的一个重要概念——Fine-tuning(模型微调)。Fine-tuning通常在预训练模型的基础上进行,通过在特定任务的数据集上...

微软、国科大开启1Bit时代:大模型转三进制,速度快4倍能耗降至1/41

摘要:近期,微软研究院、国科大等机构的研究者提出了一种革命性的1-bit大模型,这一技术在AI领域引起了广泛关注。该研究通过将大模型的权重改为三元表示,实...

Dolly:120亿参数的大型语言模型,你的AI智能助手。

Dolly是由Databricks开发的大型语言模型,具有120亿参数,能在机器学习平台上进行训练并获取商业用途许可。Dolly的独特之处在于其强大的理解力和执行力,能帮...

知名AI研究者深挖谷歌Gemma:参数不止70亿,设计原则很独特

这篇文章介绍了谷歌新推出的开源模型系列「Gemma」,与之前的Gemini相比,Gemma更轻量且免费可用,同时模型权重也开源并允许商用。文章中提到了Gemma的两种模...

第三届AAAI/ACM SIGAI博士论文奖出炉,MIT博士260多页论文探索模型泛化

在第38届国际人工智能顶会AAAI 2024上,MIT女博士Shibani Santurkar凭借其论文《超越准确性的机器学习:模型泛化的特征视角》获得了2021年AAAI/ACM SIGAI博士...

GPT-4正接管人类数据专家!先验知识让LLM大胆预测,准确率堪比传统方式

新智元报道,编辑:桃子【新智元导读】:终有一天,LLM可以成为人类数据专家,针对不同领域进行数据分析,大大解放AI研究员。在数据科学中,AI研究员经常面临...
1 2 3 4