Midjourney发布了新的V4版模型,效果惊人,引发了一股使用热潮。盛赞和批评的声音都很大,赞扬的一方认为新版对语义的理解方面有了很大的提高,批评的一方认为艺术想象性方面弱于V3版,效果更接近于写实。要使用新版,直接在提示后键入 --v4 或从 /settings 中选择“V4”
- - 这个模型可以生成比我们之前发布的任何东西更逼真的图像。
可以看出官方通告也强调了新版语义理解力的提高,我自己试了几幅,最主要的感受是对复杂句型的理解力大大提高,以往在Stable Diffusion等程序中需要多次叠加inpainting、Mask等功能迭代才能完成的作品,在新版Midjourney中可以非常迅速的实现预期效果,非常精准的就能获得想要表达的内容。以下用我的几个实例对比一下新版Midjourney和Stable Diffusion对语义的理解力:在Stable Diffusion中经过多次迭代和修改,才得到上述基本符合的效果。下面看一下Midjourney的。
基本上第一次就知道我要表述的内容,虽然没有追求提示语完全相同,但同样是表示高层公寓内景,Midjourney显然更快更准确的理解了我的意思。上面几幅是使用Stable Diffusion经过多次迭代修改后的作品。
上面这幅是使用Stable Diffusion经过无数次迭代修改完成的作品。
这幅是Midjourney一步即达到的构图,后续仅进行了一次迭代细化效果。
同样要表达的效果在Stable Diffusion中多次迭代没有找到合适的构图和效果,而上面这幅是Midjourney新版第一次迭代就有了符合心中所想的构图,后面仅进行了两次迭代细化。
Stable Diffusion并未能理解我要的两面切割效果,上面两幅都是Stable Diffusion使用Mask实现类似的效果。
可以看出,Midjourney理解的非常精准,语义理解能力的提高,为实现复杂想法打下了好的起点,节省了很多迭代和调整的时间。
卷起来吧!自从Stable Diffusion开源后,在text2img方面已经很久没有这么热闹了,不同AI程序的竞争显然能带来更好的结果,继续观望,积极参与。
推荐阅读以下AI绘画内容:
喜欢可点赞、关注、转发、打赏支持!