正文
我粗体验的结论就是,不仅画饼,放出来的模型质量还一般。
先说画饼。
这次Gen4主打的功能,其实是多主体参考。
大概意思就是,你不需要微调lora,只需要几张图,就可以固定场景、人物、风格,然后直接文生即可,有很强的可控性和一致性。
他们这次放出来的几个视频,有一个是我非常喜欢的,叫做《牛群》。质量极高,而且也能看出多主体参考的运用。
这个片子我几乎是一口子看完的,非常的精致,分镜、色调、节奏都很棒,人物也是全程统一,不会像以前一样,人物变来变去,一直让人出戏。
正是因为多主体参考的越发成熟,参考+文生可能未来会越来越主流,AI短剧也会越来越多。
但是,这个功能,其实vidu早就上了,可灵和海螺也都上了,不过大家各有各的问题,比如会糊,比如一致性没那么好等等。
Runway Gen4从演示上来看,效果确实不错,如果能达到片子里的水平,那就是No.1。
但是,最大的问题,是个期货。。。
References很快会推出。。。你也不知道他啥时候推出。。。
不是哥们,现在OpenAI都知道不发期货了,GPT4o啥的全都是发布即上线,你咋还越玩越回去了。
所以,没有参考功能,Gen4的生成界面,就变成了光秃秃一坨,只有图生视频功能了。。。
对,文生视频也没有,估计要跟着多主体参考一起出,现在能用的,就只有图生视频。
其他的,相机控制、Act-One,这两一个都没有。
其他的小功能,倒是还能用。
再说说图生视频模型。
就,相比于Gen3,有进步。
但是跟目前公认的图生视频最好的模型可灵1.6比,明显还差了一截,更别提跟Google那个牛逼炸的Veo2的文生视频出来的质量比了。
我自己测了很多的case。
给大家也直接看一些对比的case吧
(PS:所有的例子,都是一轮直出,可灵1.6用的中文prompt,RunwayGen4用的英文Prompt,飞书文档链接我也放到最后,不是刻意捧谁踩谁,这就是最直观的case对比)。