标签:大语言模型
为什么号称模拟世界的Sora,处理不好一些简单的物理规律?
本文讨论了AIGC领域的专业社区,特别是关注微软、OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地。文章以Sora视频生成模型为例,探讨了...
谷歌掀桌子!开源Gemma:可商用,性能超过Llama 2!
2月22日,谷歌宣布开源了大语言模型Gemma,该模型与谷歌最新发布的Gemini使用相同架构,提供20亿和70亿两种参数版本。Gemma在多个主流测试平台中表现出色,尤...
追赶OpenAI的Sora:Meta开源V-JEPA,让AI学会认识世界!
Meta公司基于Yann LeCun提出的JEPA(联合嵌入预测架构)模型,开发了非生成视频模型V-JEPA。该模型旨在通过观察和自我思考、总结,使AI模型能够学习并模拟世...
不只是100万上下文,谷歌Gemini 1.5超强功能展示
AIGC领域的专业社区关注了微软、OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,特别是谷歌发布的Gemini 1.5模型。尽管在发布当天遭遇...
普林斯顿DeepMind用数学证明:LLM不是随机鹦鹉!「规模越大能力越强」有理论根据
普林斯顿大学和DeepMind的科学家,Sanjeev Arora和Anirudh Goyal,通过数学方法证明了大语言模型(LLM)的能力随着规模的增大而增强,并非仅仅是随机组合训练...
谷歌产品大更新:Bard可生成图像;文生音乐平台等5大免费功能
在2月2日的谷歌官网更新中,谷歌对生成式AI产品进行了重大更新,包括类ChatGPT聊天助手Bard可以通过文本提示生成图像,全新的文生音乐平台MusicFX,新的文生...
重磅!第二代Qwen大模型开源,阿里巴巴一口气开源了30个模型,其中Qwen1.5-72B在MT-Bench评分仅次于GPT-4
以下是加粗后的文本:阿里巴巴开源了一系列名为Qwen的大语言模型,并在2023年8月首次公开了一个拥有70亿参数的版本。在接下来的几个月里,该公司陆续发布了四...
OpenChat-3.5:70亿参数下的AI突破
OpenChat-3.5是一款拥有70亿参数的先进大语言模型,具有卓越的编码能力和通用化方法,在多个基准测试中表现突出。该模型不仅超越了现有的语言学习模型(LLMs...
从入门到放弃的大语言模型(LLM)
文章总结:本文主要介绍了大语言模型(Large Language Model,LLM)及其在2023年及以后的应用前景。作者认为,2023年将成为大语言模型应用的元年,并将推动人...
大语言模型 vs 大模型
本文主要介绍了大模型的概念、分类以及与大语言模型的关系。大模型是基于神经网络的一种模型,由多个神经元组成,通过权重连接形成层次结构。神经网络通过学...