Runway:稳定、可控的视频方案 Gen-3 Alpha
长话短说
自《Luma》发布视频模型后
Runway 也发了新货
Gen-3 Alpha
看上去很稳定
给大家
带来第一时间的资讯
【1】官方宣传片
【2】火车窗边的女人
【3】宇航员在里约热内卢的小巷奔跑
【4】穿过森林到废弃房屋再到海浪
【5】老年男子在侧光下弹钢琴
【6】站在 1980 年代厨房里的鸵鸟
【7】一个中年秃头男人
【8】悬崖边的古代战士雕像
【9】空荡的仓库里,冒出丛林
有关这次更新
高保真、可控视频生成:相较 Gen-2,保真度、一致性和运动性显著提升。
多模态输入支持:支持文字转视频、图像转视频、文字转图像等多种创作方式。
精细时间控制:实现精准的场景转换,让视频更流畅自然。
逼真人物角色生成:能生成多种动作和情感的逼真人物。
风格化控制和角色定制:提供丰富的风格化控制和一致性角色定制选项。
先进工具:支持运动画笔(Motion Brush)、相机控制(Advanced Camera Controls)和导演模式(Director Mode)等专业创作工具
跨学科团队开发:由研究科学家、工程师和艺术家团队共同研发。
与娱乐和媒体组织合作:定制 Gen-3 模型版本,满足不同行业需求。
全新视觉审核系统:保障内容安全,符合 C2PA 内容真实性标准。
项目索取
如有微调、定制,或者其他类似需求,可通过下面的方式进行联系:
https://runwayml.com/custom-model-inquire/
此外
Luma 也在刚刚发布了新预告
要发布更好的编辑、控制功能
在这里申请提前体验
https://docs.google.com/forms/d/e/1FAIpQLScgsh3Cf2VXf8k7k9iVd-nP5NZk-TSRfq4Tkvh7inv8kS9Ulg/viewform
以及
Luma 也发布了 Extend 功能
视频时间扩充到10秒以上
并保持原视频风格、人物对象一致。
OpenAI
要努力了