我们在这个方向上探索了将近三年,大部分工作是和实验室的学弟 @朴智新 一起完成。我们去年的第一版算法Liquid Warping GAN [1] 发表在了ICCV 2019上。https://zhuanlan.zhihu.com/p/84572711但是这个初始的版本还有很多的问题,如泛化性较差,尺度太较小(256 x 256), 以及自动化程度不够高等等。又进过一年的探索,我们继续探索出了第二个版本Liquid Warping GAN with Attention [2]。目前它在模型的泛化性上,更大的尺度上(512 x 512, 1024 x 1024),更自动化程度等方面取得了比较大的进展。效果如上面两个例子所示。我们在2020年6月份左右就已经完成论文方面的工作,然后又断断续续花了几个月的时间整个相关预处理的代码,目前已经开源。项目主页:https://www.impersonator.org/work/impersonator-plus-plus.htmlGithub:https://github.com/iPERDance/iPERCore如果没有GPU显卡的话,可以白嫖一下Google Colab (需要先那个一下):https://colab.research.google.com/drive/1bwUnj-9NnJA2EMr7eWO4I45UuBtKudg_?usp=sharing欢迎大家尝试玩耍,做出好玩的视频,并在github点个star(-_-)。之后我们也会深入分享一下整个系统的架构,所用到的工具,以及相关的核心模块和算法。对于生成更准确更逼真的视频,目前的系统还是不够的,还需要从各个方面提高算法的性能,这个领域也还有很多可以做的点,路漫漫其修远兮。[1] Wen Liu and Zhixin Piao, Min Jie, Wenhan Luo, Lin Ma and Shenghua Gao, "Liquid Warping GAN: A Unified Framework for Human Motion Imitation, Appearance Transfer and Novel View Synthesis", ICCV 2019.https://openaccess.thecvf.com/content_ICCV_2019/papers/Liu_Liquid_Warping_GAN_A_Unified_Framework_for_Human_Motion_Imitation_ICCV_2019_paper.pdf[2] Wen Liu and Zhixin Piao, Zhi Tu, Wenhan Luo, Lin Ma and Shenghua Gao, "Liquid Warping GAN with Attention: A Unified Framework for Human Image Synthesis", arXiv 2011.09055, under review of IEEE TPAMI.https://arxiv.org/pdf/2011.09055.pdf