■ 结束语
我们在本文中提出了 FFCLIP,一种可以针对不同文本但只需要单个模型就能进行有效图像编辑的新方法。本文动机是现有方法是根据已有的经验来匹配当前文本和 GAN 的语义子空间,因此一个编辑模型只能处理一个文本提示。我们通过对齐和注入的语义调制来改进潜在映射。它有利于一个编辑模型来处理多个文本提示。多个数据集的实验表明我们的 FFCLIP 有效地产生语义相关和视觉逼真的结果。
§ 参考文献
1.Or Patashnik,Zongze Wu,Eli Shechtman,Daniel Cohen-Or,and Dani Lischinski.Styleclip:Text-driven manipulation of stylegan imagery.In IEEE/CVF International Conference on Computer Vision,2021。
2.Weihao Xia,Yujiu Yang,Jing-Hao Xue,and Baoyuan Wu.Tedigan:Text-guided diverse face image generation and manipulation.In IEEE/CVF Conference on Computer Vision and Pattern Recognition,2021。
3.Tianyi Wei,Dongdong Chen,Wenbo Zhou,Jing Liao,Zhentao Tan,Lu Yuan,Weiming Zhang,and Nenghai Yu.Hairclip:Design your hair by text and reference image.arXiv preprint arXiv:2112.05142,2021。
4.Omer Tov,Yuval Alaluf,Yotam Nitzan,Or Patashnik,and Daniel Cohen-Or.Designing an encoder for stylegan image manipulation.ACM Transactions on Graphics,2021。
5.Jun Fu,Jing Liu,Haijie Tian,Yong Li,Yongjun Bao,Zhiwei Fang,and Hanqing Lu.Dual attention network for scene segmentation.In IEEE/CVF Conference on Computer Vision and Pattern Recognition,2019。