
文章摘要
【关 键 词】 AI视频、Gen4、多主体参考、图生视频、模型对比
Runway近期发布了其最新的AI视频生成模型Gen4,标志着该公司在沉寂九个月后的重大更新。Gen4的推出旨在将AI视频技术推向一个新的高度,特别是在多主体参考功能方面,这一功能允许用户通过几张图片固定场景、人物和风格,从而实现更高效和一致的文生视频生成。这一技术的成熟预示着未来AI短剧的增多和创作方式的变革。
然而,Gen4的发布并非没有争议。尽管Runway展示了一些高质量的视频示例,如《牛群》,展示了多主体参考的潜力,但该功能目前尚未完全推出,用户只能使用图生视频功能。此外,与市场上其他领先的AI视频生成模型,如可灵1.6和Google的Veo2相比,Gen4在视频质量和物理规律的表现上仍有明显差距。例如,在处理复杂场景如“洛神水下起舞”时,Gen4的光影处理虽细腻,但在动作连贯性和细节表现上不如可灵1.6。
Runway的Gen4虽然在技术上有所进步,但在实际应用中仍面临挑战。其多主体参考功能的延迟推出和现有功能的局限性,使得Gen4在当前竞争激烈的AI视频生成领域中显得不够突出。Runway需要进一步优化其模型,以恢复其在行业中的领先地位。
原文和模型
【原文链接】 阅读原文 [ 2059字 | 9分钟 ]
【原文作者】 数字生命卡兹克
【摘要模型】 deepseek-v3
【摘要评分】 ★★☆☆☆
© 版权声明
文章版权归作者所有,未经允许请勿转载。
相关文章
暂无评论...