拒绝白人与亚洲人同框,Meta图像生成器的「歧视」,被人挖出来了
文章摘要
【关 键 词】 AI偏见、图像生成、种族刻板、性别歧视、技术论坛
在人工智能的世界里,AI偏见问题一直是一个备受关注的话题。近期,Meta的AI图像生成器因无法准确生成特定种族组合的图像而引发了广泛讨论。The Verge的一篇文章通过实验揭示了Meta图像生成器在处理包含亚洲人和白人组合的图像时的偏见问题。尽管尝试了不同的文本提示(prompts),结果仍然显示出AI系统无法遵循指令生成正确的图像,反映出系统的种族偏见。
实验中,无论是尝试生成“亚洲男性和白人妻子”、“亚洲女性和白人丈夫”还是其他类似组合的图像,Meta的AI工具都倾向于生成两个亚洲人的图像,而不是按照提示中的种族描述来生成。即使在输入“亚洲男性和白人女性带着狗微笑”这样的具体场景时,结果也是如此。这种偏见不仅限于亚洲人和白人的组合,当涉及到南亚人物时,AI工具同样显示出刻板印象,比如在没有特定要求的情况下,生成的南亚女性往往会穿戴纱丽。
这一发现引起了人们对AI系统创建者、训练者以及所用数据集可能存在的偏见和刻板印象的警觉。有分析认为,这可能是因为Meta在训练模型时没有提供足够的相关场景示例。此外,去年10月,Meta的AI生成贴纸工具也曾因创建不恰当的图像而受到批评,包括童兵、持枪和拿刀的米老鼠等暴力、粗鲁、裸露形象。
这些问题的出现再次提醒我们,AI技术在发展的同时,需要更加细致和全面的考虑,以避免偏见和不当表现。在这样的背景下,机器之心即将举办的AI技术论坛“视频生成技术与应用 — Sora时代”将聚焦于视频生成技术、多模态大模型等前沿领域的技术突破和应用实践,旨在帮助企业和从业者紧跟技术发展潮流、掌握最新技术进展。这样的论坛对于行业内的专业人士来说,是一个了解最新技术动态和交流经验的宝贵机会。
原文和模型
【原文链接】 阅读原文 [ 1158字 | 5分钟 ]
【原文作者】 机器之心
【摘要模型】 gpt-4
【摘要评分】 ★☆☆☆☆