标签:自然语言处理

小红书怎么用大模型?顶会作者在线等你来聊

3. 袁沛文将介绍在ACL 2024上发表的两篇论文。第一篇《BatchEval: Towards Human-like Text Evaluation》提出了BatchEval方法,能够以更低的开销达到类人水平...

AI 第一次高考:记得作文要龙头猪肚凤尾

在人工智能技术快速发展的背景下,AI写作能力成为关注的焦点。高考作文作为衡量学生综合能力的重要标准,成为检验AI自然语言处理能力的理想场景。文章深入探...

Meta等最新研究:多token预测,提升大模型推理效率

在自然语言处理领域,大语言模型如GPT-4、Gemini系列和Llama-3等,通常采用下一个token预测的损失函数进行预训练。然而,这种预训练方法需要大量数据且可能降...

突发!OpenAI首席科学家Ilya官宣离职,GPT-4负责人接任

Ilya Sutskever,OpenAI的联合创始人和首席科学家,在近10年的工作后宣布离开公司。他在社交媒体上表达了对OpenAI未来发展的信心,并提到了对即将从事的新项...

谷歌提出大规模ICL方法——强化和无监督

本文主要讨论了大语言模型(LLM)在自然语言处理任务中的发展,特别是在少样本学习和上下文学习(ICL)方面的进展。文章首先指出,尽管LLM在少样本学习中表现...

清华SuperBench全球测评出炉,Claude 3拿下多个冠军!合成数据才是人类未来?

清华大学SuperBench团队最近发布了新一轮的全球大模型评测结果。在语义理解、智能体能力和代码能力三个测评中,Claude 3模型表现出色,拿下两个第一名,并在...

走近李生教授:培养出周明、王海峰等数位AI科学家,NLP国际最高奖项得主的科研之路

李生教授是中国自然语言处理领域的杰出科学家,他的科研生涯和教育事业为中国人工智能领域的发展做出了巨大贡献。本文详细回顾了李生教授的生平、成就以及对...

图文详解Transformer为什么如此强大

Transformer模型自问世以来,已经在自然语言处理(NLP)领域取得了革命性的进展,并且其影响力已经扩展到了NLP之外的其他领域。Transformer的核心特点在于其...

谷歌DeepMind发布Gecko:专攻检索,与大7倍模型相抗衡

最后,机器之心还宣布将在北京海淀举办AI技术论坛,聚焦于视频生成技术、多模态大模型等前沿领域,旨在帮助企业和从业者掌握最新的技术进展。

讨论下一个token预测时,我们可能正在走进陷阱

机器之心报道,编辑赵阳,最近围绕下一个token预测的讨论日益激烈。然而,许多人认为,下一个token预测的目标无法真正模拟人类思维。人类在执行计划之前会在...
1 2