谷歌Gemini生图功能紧急关闭,口碑一夜塌房,Yann LeCun:我早就知道
作者信息
【原文作者】 机器之心
【作者简介】 专业的人工智能媒体和产业服务平台
【微 信 号】 almosthuman2014
文章摘要
【关 键 词】 Gemini、谷歌、AI、图像生成、种族偏差
谷歌的Gemini AI系统在推出后不久就遭遇了问题。这个被谷歌称为“最大、最有能力和最通用”的AI系统,旨在提供对“最强模型系列”的访问,但在人物图像生成方面出现了严重的种族偏差问题。用户发现,Gemini在生成图像时似乎拒绝描绘白人,而是生成了违背基本事实(性别、种族、宗教等)的图片。例如,它将伊隆·马斯克生成为黑人,而实际上他是白人。此外,它还生成了一名身着教皇服装的亚洲女性,而历史上所有教皇都是男性。这些错误引起了社交媒体上的广泛关注和讨论。
谷歌在面对批评后承认了问题,并暂停了Gemini的人物图像生成功能。谷歌知识与信息高级副总裁Prabhakar Raghavan表示,公司已经意识到了这个问题,并正在开发改进版本。谷歌解释说,Gemini在生成人物图像时的调整未能考虑到不应该显示的范围,并且随着时间的推移,模型变得过于谨慎,拒绝回答某些提示。谷歌承诺,他们将努力改进Gemini,并在重新开放人物图像生成功能之前进行广泛的测试。
这次事件也反映了AI领域中的一个重要问题,即训练数据集的偏差如何影响生成图像模型的性能。图灵奖获得者Yann LeCun指出,图像重建任务会受到训练数据集统计的严重偏差影响。他引用了一篇研究,该研究表明生成图像的种族成分成功继承了训练数据的种族成分,而且生成图像的种族和质量也有所不同。LeCun和其他人的观点强调了在AI开发中考虑数据偏差和社会责任的重要性。
原文信息
【原文链接】 阅读原文
【原文字数】 1953
【阅读时长】 7分钟
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...