“ICLR 2024”的搜索结果

在 ICLR 2024,看见中国大模型的力量
ICLR 2024 概况:ICLR 2024 在奥地利维也纳举行,自1月份启动论文终审以来,共收到7262篇提交论文,比去年增长46.1%。最终接受2260篇,...
在ICLR 2024这场演讲中,智谱AI首次公开神秘项目「GLM-zero」
ICLR(国际学习表征会议)自2013年由深度学习领域的两位图灵奖得主Yoshua Bengio和Yann LeCun创立以来,迅速成为了AI领域的顶级会议之一...
7262篇提交,ICLR 2024爆火,两篇国内论文获杰出论文提名
本文是对国际学习表征会议(ICLR 2024)的杰出论文奖和荣誉提名奖的总结。ICLR 是深度学习领域的顶级学术会议,由 Yoshua Bengio 和 Yan...
ICLR 2024 | 联邦学习后门攻击的模型关键层
联邦学习是一种分布式的机器学习方法,它允许多个参与方在保护数据隐私的前提下共同训练模型。然而,这种方法存在安全隐患,因为服务器...
ICLR 2024 | 鸡生蛋蛋生鸡?再论生成数据能否帮助模型训练
随着生成模型的快速发展,如ChatGPT和扩散模型,生成数据的质量不断提高,同时模型规模的增大也导致真实数据的枯竭。这引发了学界的争论...
LLM性能最高60%提升!谷歌ICLR 2024力作:让大语言模型学会「图的语言」
谷歌团队在ICLR 2024上提出了一种将图形数据转换为适合LLMs理解的形式的方法。在计算机科学领域,图形结构由节点(代表实体)和边(表示...
ICLR 2024 | RLHF有了通用平台和基准,天大开源,专攻现实决策场景
天津大学深度强化学习实验室的研究团队推出了面向现实决策场景的 Uni-RLHF 平台,这是一个专为强化学习与人类反馈(RLHF)量身定制的综...
ICLR 2024 | 连续学习不怕丢西瓜捡芝麻,神经形态方法保护旧知识
近年来,脉冲神经网络(SNN)和脑启发的神经形态计算因其低功耗特性而受到关注。神经形态计算模拟生物神经元的特性,如存内计算和事件驱...
ICLR 2024 | 无需训练,Fast-DetectGPT让文本检测速度提升340倍
以下是使用HTML元素标记的重点词语和句子:近年来大语言模型的快速发展对人类社会产生了深远影响,但其误用也带来了虚假信息、剽窃等问题...
ICLR 2024 Spotlight | 大语言模型权重、激活的全方位低bit可微量化,已集成进商用APP
摘要:本文介绍了一种名为OmniQuant的新型大语言模型(LLM)量化算法。该算法由上海人工智能实验室、香港大学和香港中文大学的研究者共...
1 2 3