软件工程硕士论文栏目提供最新软件工程硕士论文格式、软件工程硕士硕士论文范文。详情咨询QQ:1847080343(论文辅导)

生成对抗网络在服饰风格迁移中的推广

日期:2021年07月30日 编辑:ad201107111759308692 作者:无忧论文网 点击次数:828
论文价格:150元/篇 论文编号:lw202107222040458029 论文字数:29566 所属栏目:软件工程硕士论文
论文地区:中国 论文语种:中文 论文用途:硕士毕业论文 Master Thesis
[93]。多人解析是指将人群场景图像划分为属于身体部位或衣服的语义一致区域,同时区分不同的身份,从而为图像中的每个像素分配一个语义部位标签及其所属的身份。基于多人解析,可以建立许多更高级别的应用程序,例如群体行为分析,人员重新识别,图像编辑,视频监视,自动驾驶和虚拟现实。

为了助推行业在多人解析方面的研究进展,新加坡国立大学同时提出了一个全新的基本数据集 《multi-human parsing》(mhp)。相比之前的人物解析数据集,仅包含单人图片,并且人物的姿态和场景比较单一,或者多人情况下并且没有对多人进行不同的区分,相比之下,mhp 的每张图片均包含自然场景下的多个人物,并且存在多种人物形象交互,姿态,遮挡,场景等等,因而更加贴合实际的应用。

MHPV1.0 数据集包含 4980 张图像,每张图像至少包含两个人(平均为 3)。我们随机选择 980 张图像及其对应的注释作为测试集。其余部分组成一个训练集(包含 3,000 张图像)和验证集(包含 1,000 张图像)。对于每种情况,除了“背景”类别(即“帽子”,“头发”,“太阳镜”,“大衣”,“裙子”,“裤子”,“礼服”,“皮带”,“左鞋”,“右鞋”,“脸部”,“左腿”,“右腿”,“左臂”,“右臂”,“包”,“围巾”和“躯干皮肤”。每当相应类别出现在当前图像中时,每个实例都有一整套注释。图片中的每个像素划归到所归属的不同的人物,非实例级人物解析与多人解析,其中多人解析有助于更加精确详细的群体场景下的人物理解,更加符合实际的应用需求。

..........................


第 5 章 总结与展望


5.1 总结

本文的研究内容是基于生成对抗网络的服饰风格迁移,是一种针对未配对图像的转换方法,实现了对不同风格的服装进行风格迁移,达到在背景不变的前提下进行虚拟试穿。首先介绍了服饰风格迁移的研究背景及意义,同时对近年来国内外深度学习、生成对抗网络、以及图像转换等研究工作进行了简要介绍。然后对生成对抗网络、神经风格迁移、服饰风格迁移等相关的基础理论与研究成果进行了阐述。根据 CycleGAN 网络能够有效处理未配对的图像在域与域之间进行转换的特点,本文提出以其为基础结构的服饰风格迁移模型,通过对网络模型结构、目标损失函数、优化方法等方面的改进,最终实验与相关模型进行对比,证明了本文提出的模型在服饰片段的风格迁移任务上的有效性。

本文提出的方法通过在输入图像时附加图中相应的实例掩码到生成器和鉴别器中,作为额外信息来引导图像生成的正确方向。在损失函数方面,参照以往的一些研究经验,选择 LSGAN 损失、周期一致性损失、标识映射损失和上下文保持损失相结合,从而促进整个风格迁移任务。在生成器选择中使用 ResNet,不包含池化层,通过下采样和残差块来进行编码,减少特征映射空间范围,上采样层进行解码、生成图像。鉴别器方面选择70 × 70的 PatchGAN,这种补丁级的鉴别器跟全图的鉴别器相比有更少的参数,同时可以对任意大小的图像进行处理。在生成器与鉴别器的归一化方面采用更适合风格迁移任务的实例归一化。模型优化器选择效果最佳的 Adam 优化器,等等相关的设置与改进共同达到实验目标,在图像转换过程中对目标服装项目进行对应的风格迁移,同时保持其原有背景和结构完全不变。本文研究结果可将服装产品直观展示给设计者和使用者,具有较高的实用价值。实验结果显示,该方法通过基于 GAN 的深度神经网络模型达到了本文的预期目标,十分适合基于图像的虚拟试穿实验。

参考文献(略)