如何看待谷歌开源大模型 Gemma:被迫入局、开源力度不够、2024 会有小模型黑马出现
作者信息
【原文作者】 Founder Park
【作者简介】 来自极客公园,专注与科技创业者聊「真问题」。
【微 信 号】 Founder-Park
文章摘要
【关 键 词】 Google、Gemma、开源、大模型、AI
Google 发布了全新的开源模型系列「Gemma」,这标志着 Google 在开源大模型领域的重磅回归。Gemma 模型相比 Gemini 更加轻量,提供了 2B 和 7B 两种权重规模的模型,并且允许商用。Gemma 模型可以在多种设备上运行,性能超过 Llama-2。对于 Meta、Mistral 等开源玩家,Google 的这一举措可能会带来新的竞争压力。未来开源大模型的发展方向可能会集中在开发性能强大的小规模模型(SLLM)上,通过增加训练数据规模和质量来提升模型效果。
李志飞 对 Google 开源 Gemma 的看法是,虽然时间上有些晚,但亡羊补牢未为晚。他认为 Google 在开源方面的力度不够,应该更加积极地开源更大规模的模型。同时,Google 需要放下高贵的头颅,更加注重产品和竞争驱动,而不是仅仅依赖研发驱动。李志飞希望 Google 能够打起精神,为 AI 产业的发展贡献力量。
张俊林 认为 Google 开源 Gemma 是被迫重返开源赛场,这对于开源社区来说是个好事。他指出,目前大模型领域形成了三巨头局面:Google Gemma、Meta LLama 和欧洲的 Mistral。张俊林预测,2024 年开源 SLLM 领域可能会出现黑马,因为这些模型在训练成本和推理成本上相对较低,市场潜力巨大。他建议开源模型公司应该专注于开发性能强大的 SLLM,通过增加训练数据规模和质量来提升模型效果。
原文信息
【原文链接】 阅读原文
【原文字数】 2660
【阅读时长】 9分钟