标签:机器翻译

微软高剑峰、哈工大(深圳)张民等四位华人入选,2024 ACL Fellow名单公布

计算语言学协会(ACL)近日公布了2024年Fellow名单,共有9位学者入选,其中包括4位华人学者。ACL是自然语言处理(NLP)领域最具影响力的国际学术组织,成立于...

字节大模型同传智能体,一出手就是媲美人类的同声传译水平

近年来,人工智能在自然语言处理领域取得了显著进展,但同声传译(Simultaneous Interpretation, SI)依然是一个挑战。传统的同声传译软件通常采用级联模型,...

走近李生教授:培养出周明、王海峰等数位AI科学家,NLP国际最高奖项得主的科研之路

李生教授是中国自然语言处理领域的杰出科学家,他的科研生涯和教育事业为中国人工智能领域的发展做出了巨大贡献。本文详细回顾了李生教授的生平、成就以及对...

OpenAI公关跳起来捂他嘴:Transformer作者公开承认参与Q*!|八位作者最新专访

本文讲述了Transformer架构的发展历程,这是一项对AI领域产生重大影响的技术。Transformer的发明者之一,Lukasz Kaiser,公开承认参与了OpenAI的Q*项目,但关...

黄仁勋组局,Transformer七子首次重聚对谈 | 中文实录

2017年,一篇名为《Attention is All You Need》的论文引入了基于自注意力机制的Transformer模型,这一创新架构摆脱了传统的RNN和CNN的束缚,通过并行处理的...

专访85岁冯志伟教授:一个北大中文系学生的机器翻译之梦

冯志伟是中国计算语言学和自然语言处理领域的先驱之一,他的学术生涯跨越了语言学和计算机科学两个领域。他的研究成果包括首次测算汉字的熵值、开发世界上第...

大模型Scaling Law同样适用于下游任务性能?斯坦福、谷歌最新研究揭秘

本文探讨了大模型性能与训练数据规模、模型架构等设计要素之间的关系,即Scaling Law。研究者们主要关注了迁移学习中的Scaling Law,即预训练数据集大小与任...

改变当今人工智能格局的重要技术——Transformer

本文主要介绍了自然语言处理(NLP)领域的重要技术——Transformer。Transformer自2017年提出以来,迅速改变了NLP的发展轨迹,具有并行计算能力和捕捉长距离依...