Flux、SD等图片生成模型遭“封禁”,但这次硅谷大厂不反对了!

AIGC动态4个月前发布 ai-front
687 0 0
Flux、SD等图片生成模型遭“封禁”,但这次硅谷大厂不反对了!

 

文章摘要


【关 键 词】 AI法案争议技术挑战开源影响监管威胁言论自由

加州的两项法案SB 1047和AB 3211引发了广泛的关注和争议。SB 1047法案,即“前沿AI模型安全创新法案”,要求对投资超过1亿美元或具备一定计算能力的AI开发者建立安全准则,以确保大规模AI模型的安全性。而AB 3211法案则要求AI图像生成系统、服务、模型或模型托管站点必须部署强大的AI水印机制,否则将被视为非法。这些水印需要嵌入难以察觉且难以删除的元数据,以标识图像为AI生成,并提供生成方式、时间和服务的其他信息。

AB 3211法案的技术要求被认为在当前技术水平下难以实现,因为向数字文件中嵌入不可删除的元数据几乎是不可能的,而且即使技术上可行,其成本也可能超出大多数模型构建者,尤其是开源社区的承受能力。此外,该法案还要求模型创建者或提供者进行广泛的对抗性测试,并开发及公开检测工具。如果法案通过,几乎所有现有的Stable Diffusion模型、微调和LoRA在加州都将被定义为非法,而CivitAI、Hugging Face等网站可能需要过滤或阻止加州居民生成的内容。

AB 3211法案的支持者包括微软、OpenAI和Adobe,这可能是因为他们认为没有开源图像生成模型或服务能够满足这些技术要求,从而使得法案成为打击开源竞争对手的工具。然而,法案的批评者认为,它可能会成为AI技术领域最大的监管威胁,因为它可能导致加州所有开源AI图像模型的终结。

此外,AB 3211法案还将禁止销售未采用图像认证系统的新型静态或视频相机,并要求在加州拥有200万或更多用户的大型在线社交媒体平台检查其元数据,以确定图像是否由AI生成,并要求明确标注。这可能会对技术与言论自由造成影响。

SB 1047法案则要求AI企业在训练复杂的基础模型之前实施一系列预防措施,包括能够快速完全关闭模型、确保模型免受篡改,并部署测试程序评估模型的安全性。该法案适用于成本至少为1亿美元的大型AI模型,或在训练期间使用大量计算能力的模型。对于开源模型及其衍生产品,原始开发者应承担责任,除非另一位开发者再投资1000万美元创建衍生产品。

尽管SB 1047法案的支持者认为它反映了对AI风险的了解,但反对者担心它会损害人工智能生态系统,对开源模型的创建者带来额外风险,并可能基于错误的“生存风险”幻觉。硅谷的许多人士和组织,包括OpenAI、Anthropic、政客和加州商会,都反对SB 1047法案。

目前,这两项法案的命运尚不明朗,州长加文·纽森是否会签署这些法案还有待观察。同时,法案的宪法审查问题也尚未明确,因为其条款可能过于宽泛且缺乏技术可行性,可能与宪法第一修正案的权利相冲突。尽管如此,一些企业已经开始宣传他们的产品,如Digimarc水印技术,以应对这些法案可能带来的挑战。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 3001字 | 13分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...