标签:开源
英伟达开源最新大模型Nemotron 70B后,只有OpenAI o1一个对手了
英伟达最近开源了一款名为Llama-3.1-Nemotron-70B-Instruct的大型语言模型,该模型在性能上超越了OpenAI的GPT-4o和Anthropic的Claude-3.5 sonnet等竞争对手。...
击败GPT-4o、仅次于o1!英伟达重磅开源超强大模型–Nemotron
全球AI领域的领导者英伟达(Nvidia)最近开源了一款名为Llama-3.1-Nemotron-70B-Instruct的强大模型,该模型在测试中超越了140多个开闭源模型,包括GPT-4o、G...
GitHub 联合创始人独家揭秘:规模小又没钱,我们凭什么能打败谷歌
Scott Chacon,GitHub的联合创始人之一,分享了他对于GitHub如何从众多代码托管平台中脱颖而出并占据主导地位的见解。他认为GitHub的成功可以归结为两个关键...
Meta开源多模态模型——Llama 3.2
Meta公司最近发布了其首个多模态大语言模型(LLM)Llama-3.2,标志着Llama系列的重大升级。此次升级包括四个不同规模的模型,旨在满足不同应用场景的需求。Ll...
开源版GPT-4o来了,AI大神Karpathy盛赞!67页技术报告全公开
法国初创团队Kyutai开发的端到端语音模型Moshi已经开源,该模型以其自然聊天、情绪丰富、支持打断和非回合制对话等特点受到关注。模型参数量为7.69B,支持在p...
中国最大开源MoE模型,255B参数无条件免费商用,元象发布
元象XVERSE发布了中国最大的MoE(Mixture of Experts)开源模型XVERSE-MoE-A36B,该模型拥有255B的总参数和36B的激活参数,实现了在不显著增加训练和推理计算...
100B 的「跨级」跃升!元象发布最大 MoE 开源大模型,「高性能全家桶」系列全部免费
元象 XVERSE 于 9 月 13 日发布了中国最大的 MoE(Mixture of Experts)开源模型 XVERSE-MoE-A36B,该模型拥有 255B 的总参数和 36B 的激活参数,实现了与 10...
阿里开源新模型:超GPT-4o,数学能力全球第一!
阿里巴巴集团开源了一款名为Qwen2-Math的最新数学模型,该模型包含1.5B、7B和72B三种参数规模的版本,旨在推动AIGC领域的专业社区发展。Qwen2-Math在多个数学...
OpenAI掀小模型血战!苹果DCLM强势登场,碾压Mistral 7B全开源
近期,人工智能领域出现了小模型的热潮。OpenAI推出了GPT-4o mini,Mistral AI与英伟达合作发布了Mistral NeMo,而苹果公司也加入了这一竞争,发布了包含70亿...
对话傅盛:付费的闭源大模型才是“智商税”,开源、闭源之间应该共同竞争和发展|直击WAIC 2024
开源和闭源模型是共同竞争、共同发展的关系,不应存在一方遥遥领先、另一方停滞不前的局面。开源模型在很多应用场景中已经足够使用,并且发展迅速。开源生态...