标签:自然语言处理
LSTM之父:我也是注意力之父!1991年就发表线性复杂度,遥遥领先Transformer 26年
自2017年Transformer模型问世以来,其核心机制“注意力”已成为AI领域的核心技术,尤其在自然语言处理中占据主导地位。然而,关于注意力机制的起源存在争议。一...
微软高剑峰、哈工大(深圳)张民等四位华人入选,2024 ACL Fellow名单公布
计算语言学协会(ACL)近日公布了2024年Fellow名单,共有9位学者入选,其中包括4位华人学者。ACL是自然语言处理(NLP)领域最具影响力的国际学术组织,成立于...
视觉模型智能涌现后, Scaling Law 不会到头
近期,哈佛大学的一篇论文《Scaling Laws for Precision》引发了关于自然语言处理领域Scaling Law可能达到瓶颈的讨论。该论文指出,当前语言模型在大量数据上...
走近宋柔教授:78岁仍在科研前线,在语言学高校里做AI的计算语言学家
宋柔教授,北京语言大学信息科学学院首任院长,是中国自然语言处理领域的杰出学者。他的学术生涯始于北京大学数学力学系,后在北京大学计算机专业获得硕士学...
用大模型控制鼠标、键盘!OpenAI最想做的事,让Anthropic抢先了
Anthropic公司最近发布了Claude 3.5 Sonnet的升级版和新模型Claude 3.5 Haiku,并推出了一项名为Computer use的革命性功能。这项功能允许开发者通过API让Clau...
AI 蛋白质夺诺奖,清华聂再清:大模型解码生物语言 | 智者访谈
2024年诺贝尔化学奖的颁发,凸显了人工智能在生物医药领域的重要作用,预示着AI技术在该领域的广泛应用前景。尽管AI在药物研发中展现出潜力,但行业仍面临长...
除了Ilya,刚拿诺奖的Hinton还教出了这些AI博士
Geoffrey Hinton,被誉为人工智能领域的教父,最近荣获诺贝尔物理学奖。Hinton在长达数十年的研究生涯中,培养了40位博士生,其中包括多位在人工智能领域取得...
Transformer推理天花板被谷歌打破?DeepMind首席科学家亮出84页PPT,却遭LeCun反对
CoT(Chain of Thought)作为一种新兴的人工智能技术,已经在自然语言处理(NLP)领域引起了广泛关注。CoT的核心思想是通过在模型的输入和输出之间插入一系列...
战胜100多位NLP研究人员!杨笛一团队最新百页论文:首次统计学上证明,LLM生成的idea新颖性优于人类
斯坦福大学的研究团队在一项为期一年的大规模实验中,对大型语言模型(LLMs)在科学研究创意生成方面的能力进行了评估。研究结果表明,LLMs在产生新颖想法方...
北大李戈团队提出大模型单测生成新方法,显著提升代码测试覆盖率
在软件开发过程中,单元测试是确保代码质量的关键环节,它验证软件中的最小可测试单元是否按预期工作。然而,对于复杂函数的测试,传统的大语言模型(LLM)在...