文章摘要
【关 键 词】 AI泄露、知识产权、道德困境、创意劳动、技术挑战
OpenAI的文本转视频AI模型Sora在2月份首次展示后,近日遭遇泄露事件。泄露者“PR-Puppets”在Hugging Face上公开了Sora的试用接口,允许公众生成视频。泄露的Sora模型相较于2月版本,视频分辨率更高,物体运动轨迹更顺畅。然而,泄露几个小时后,访问权限被关闭,OpenAI和Hugging Face紧急撤销了身份验证令牌。
泄露事件背后,数百名艺术家通过漏洞测试、反馈和实验性工作,为市值1500亿美元的OpenAI提供了无偿劳动。尽管有数百人免费贡献,但只有少数人会通过比赛被选中,他们创作的Sora视频片段将得到放映,而这些报酬与OpenAI获得的大量PR提交和营销价值相比,显得微不足道。这种做法实际上是在使价值数十亿美元的品牌非正规化,利用艺术家进行无偿的研发和PR提交工作。此外,每项成果在分享之前都必须经过OpenAI团队的批准。这个早期访问计划似乎更多地与PR和广告相关,而不是创意表达和批评。
Sora模型是一种文本生视频生成器,因其能够创建具有良好时间稳定性的高保真短视频而引发轰动。作为一套扩散模型,它能够将文本提示词转换为最长一分钟的视频。OpenAI对于Sora无疑给予了厚望,雄心勃勃地将其定位为实现通用AI的基础性一环。但必须承认,令人印象深刻的Sora技术同样有其局限性:在生成复杂物理现象和保障内容安全等方面,这款新模型的表现仍然有待改进。
泄露事件以及背后的动机,是测试人员和贡献者们(特别是来自创意产业的测试人员和贡献者)的不满情绪。批评者声称,OpenAI夺取了他们的劳动果实,依靠无偿或报酬极低的贡献来完善其模型。这些测试人员中包括视觉艺术家和视频制作者,他们提供了宝贵的反馈和创意灵感,但却发现自己得不到任何公平的认可或者经济补偿。这种反抗行为无疑是对AI开发当中,对创造性专业知识的广泛商品化作出的抗议。
Sora争议也重新引发了关于版权和知识产权的争论。OpenAI此前曾因将受到版权保护的素材用于训练目的而受到批评,并以属于合理使用为自己辩护。尽管OpenAI已声明Sora的训练数据包含授权与公开数据集,但该公司对于具体细节一直保持沉默,也因此令人们产生了怀疑。这种训练素材的不透明性,加上创作者和出版商们的持续诉讼,也将技术进步与知识产权之间紧张的对抗关系摆上了台面。
对Sora等生成式AI模型的安全担忧,促使OpenAI实施了保护措施,包括检测分类器和内容政策执行机制。然而,这些措施可能还不足以解决泄露模型的潜在滥用问题。Hugging Face用户评论称,“如此大规模的泄露破坏了OpenAI施加道德保障的努力,反而将不受制约的权力交到了任何拥有访问权限的人手中。”
Sora泄露事件,象征着AI时代下一场整体性的权力斗争。一方面,OpenAI将自己定位为创新与实用相融合的先驱,而Sora则代表一种实现视频创作大众化的工具。但另一方面,此番泄露事件也凸显出系统性矛盾,例如创造性劳动被低估、以及AI依赖人类创造力所带来的道德困境。
对于创意专业人士来说,此番泄露则可谓是一把双刃剑。虽然它提示了当前体制的不公平,但也有可能破坏艺术家与技术开发者之间合作互信的关系。展望未来,这一事件显然想要呼吁人们重新考虑企业与创意社区之间的交互方式,强调透明度、公平报酬并对知识产权表达尊重。
Sora泄露事件的后果,为生成式AI的未来发展提供了重要教训。随着技术不断模糊创造力与计算之间的边界,对于道德框架的需求也变得愈发迫切。OpenAI对这种情况的处理,可能会为组织如何驾驭创新、道德和方向指引之间复杂的相互作用开创先例。归根结底,Sora的争议只是AI行业所面临的广泛挑战的一种缩影:如何在追求进步与尊重及保护AI背后人类劳动之间取得平衡,才是问题的关键。正如一位观察家对当前Hugging Face讨论做出的有力总结那样,“这不仅仅是一次泄露,更是一场清算。”
原文和模型
【原文链接】 阅读原文 [ 2164字 | 9分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★