两个月前曾经发过一篇文章《艺术工作者们,可以训练Stable Diffusion绘制自己风格的作品了!》,用了徐悲鸿先生画的马训练AI,绘制结果在下面这个视频里。
其实主要是介绍AI的这个技术能力,不出意料的在B站被嘲笑了,当然画的确实也差强人意。当时使用的技术还是textual inversion训练Stable Diffusion学习新概念,不过那时就知道AI的进化速度一定是非常快的,也写了很多篇文章介绍自训练AI模型的技术。
相信关注过这方面的朋友一定注意到了,自训练AI模型已经是最近最火的一个方向了,各种模型层出不穷,涉及到的版权、法律争论也愈加明显。最近忽然又想起徐悲鸿的马这个案例,于是又找出原来的图片,重新训练了一遍AI,这次已经没有GPU、长时间等待的压力了,用了20张图,仅仅五分钟就训练完毕,下面是这次训练后画的效果。对比两个月前,很容易看出进步明显。当然还是有很多问题,例如腿部的拐向、数量等等,主要的原因应该在于数据太少,我只找了20张图片。这次用的也已经是新版Dreambooth训练AI模型,效率和效果大幅提升。现在网上各类模型已经非常多了,目前最关心的还是如何方便快捷的调用不同模型,汇集模型,已经有很多第三方应用可以在不同模型之间切换,但便捷性还有待提高,目前一个模型2G,加载和切换还是有些不便,期待后期有更好的方法。还是前面说过的,关注技术发展,关注版权、法律进展,积极实践,紧跟技术才能不让自己掉队。
推荐阅读以下AI绘画内容:
喜欢可点赞、关注、转发、打赏支持!