计算机论文范文栏目提供最新计算机论文范文格式、计算机论文范文硕士论文范文。详情咨询QQ:1847080343(论文辅导)

基于Seq2Seq框架的文本风格迁移探讨

日期:2023年03月01日 编辑:ad201107111759308692 作者:无忧论文网 点击次数:308
论文价格:150元/篇 论文编号:lw202302111433088346 论文字数:26855 所属栏目:计算机论文范文
论文地区:中国 论文语种:中文 论文用途:硕士毕业论文 Master Thesis

本文是一篇计算机论文范文,笔者认为文本风格迁移(TST)是一个相对较新的研究领域,旨在保留文本内容的前提下转换文本的风格。虽然目前已出现了一些TST的研究工作,但该领域仍然存在缺乏平行语料、难以对内容-风格解缠、缺乏公认评价指标等问题。

第一章绪论

1.1研究背景

随着计算机硬件条件的快速突破以及大数据时代的到来,以数据为核心驱动的深度学习技术于近十年获得了长足的发展,并且被广泛应用于计算机视觉、机器人技术、语音识别、自然语言处理等人工智能领域之中。其中,自然语言处理(Natural Language Processing,NLP)[1]因其高难度、高价值的特性,被誉为“人工智能皇冠上的明珠”。

与更偏重于数学性、逻辑性的逻辑语言相对,自然语言是人类交流和思考的主要工具,影响着政治、文化、经济、科研的方方面面。在计算机科学与人工智能领域中,自然语言处理任务关注的是如何让计算机像人类一样理解自然语言,甚至做到主动地生成自然语言。该领域的研究者们将计算语言学、统计学、机器学习和深度学习相结合,以获得更加强大的自然语言处理模型。

自然语言处理的子任务可以被大致归为两类:自然语言理解[2]任务和自然语言生成[3]任务。前者的关注点在于让机器更好地理解文本的含义,学会人类的思考方式;而后者更加专注于如何让机器更好地自动生成人们期望的文本,学会对于文本的修改与创作。前者的代表任务包括文本情感分析、命名实体识别、文本语义相似性分析、文本阅读理解等;后者的代表任务包括机器翻译、文本自动摘要、自动问答、文本风格迁移等。

计算机论文怎么写

1.2国内外研究现状

1.2.1国外研究现状

“风格迁移”的概念最早出现于计算机视觉领域。Gatys等人[8]开创性地使用卷积神经网络(Convolutional Neural Network,CNN)在图像上进行风格迁移任务。他们利用CNN提取任意图片中的内容信息,并且和另一张图片的风格信息结合,形成具有新风格的图片。Gatys等人[8]进一步试验了利用CNN将给定照片与著名艺术作品的风格相结合的想法,并且开启了神经风格迁移的新领域。在此基础上,一些工作[9,10]采用端到端模型来实现一种特定风格的实时迁移。另一些工作[11,12]面向更高效的应用场景,在一个模型中结合了多种风格,实现了出色的图片风格化结果。

受图像风格迁移任务启发,Hu等人[13]首次提出了文本风格迁移(TST)任务,采用了变分自编码器(Variational Auto-Encoder,VAE)学习文本的潜在表示,并且利用一个风格分类器来学习文本的风格表示。随着生成对抗网络模型[14](Generative Adversarial Network,GAN)在图像生成中的成功应用,GAN也被引入TST领域中。Fu等人[15]提出了第一个基于GAN的TST模型,旨在使用GAN分离文本中的风格信息。除此之外,受机器翻译领域中回译[16](Back-Translation,BT)技术的启发,Prabhumoye等人[17]使用BT技术弱化文本中的风格信息,以达到分离文本内容的目的。Luo等人[18]提出了一种基于强化学习[19]的TST模型,使用了一个特定的策略梯度算法[20]用于最大化转换后文本的预期奖励。

值得注意的是,以上的TST工作都是在隐空间(latent space)中将文本的内容特征向量与风格特征向量分离。然而,TST的另一种思路是显式地将文本的风格与特征进行分离。这些工作认为文本的风格属性只存在于特定的单词中,因此只需要让模型学习并找到这些“风格词”并且替换为相对应的另外一种风格词就能达到风格迁移的目的。Li等人[21]基于这种“风格词替换”的思想,提出了一种基于“删除-检索-生成(Delete-Retrieve-Generate,DRG)”的TST框架。在DRG框架的基础之上,Sudhakar等人进一步使用了Transformer[22]模型识别文本中的风格词并且进行风格转换。

第二章相关背景知识介绍

2.1文本风格迁移综述

文本风格迁移任务(TST)旨在保留文本内容的前提下转换文本的风格。如上文所述,由于平行语料库的缺乏,目前绝大多数的TST工作采用了基于无监督学习的方法。本节将介绍TST领域的研究进展,并将其分为两类方法:显式TST方法和隐式TST方法。

2.1.1显式TST方法在TST任务中,一种最为直观的思路是预先假定文本的风格特征只存在于特定的单词中,因此只需要让模型学习并找到这些“风格词”并且替换为相对应的另一种风格词就能达到风格迁移的目的。这种基于“关键词替换”思想的迁移方法被称为显式文本风格迁移方法。

DRG框架分为三个步骤:1)删除(Delete),旨在找到源句中的风格词,并且将该风格词从源句中删除;2)检索(Retrieve),即在目标风格数据集中检索与源句内容最相似的目标风格句子;3)生成(Generate),在检索后进一步结合目标风格生成目标句子。值得注意的是,上方的虚线代表DRG框架也可以选择跳过检索步骤,在删除步骤后直接生成目标风格句子。

目前,基于DRG框架的显式TST方法可以进一步细分为以下三类:基于词频的方法、基于注意力机制的方法以及基于预训练语言模型的方法。

2.2预训练语言模型综述

预训练模型(Pre-Trained Models,PTMs)一直是深度神经网络参数学习的有效策略。其核心思想是先在大规模数据上预先学习到数据的特征与分布,随后在下游任务上进行模型微调(fine-tuning)以获得更好的效果。预训练-微调框架首先出现在CV领域中,先在庞大的ImageNet[60]图像数据集上预训练模型学习到较泛化的的图像特征,然后针对不同的计算机视觉任务在较小的数据集上进一步微调,实验结果表明该方法远优于随机初始化参数的方法。受CV领域的启发,在NLP大型语料库上的PTMs也被证明对下游NLP任务是有益的。在NLP领域的预训练模型被称为预训练语言模型(Pre-Trained Language Models,PTLMs)。根据PTLMs在NLP领域的发展脉络可以细分为:第一代预训练语言模型——预训练词向量模型,以及第二代预训练语言模型——预训练编码器模型。

2.2.1预训练词向量模型

单词,是自然语言最基本的单位。如何数学化、形式化地表示单词是NLP领域发展的前提。Bengio等人[61]在神经网络语言模型(neural network language model)的开创性工作中引入了“词嵌入”(word embedding)的概念,解决单词的one-hot表示造成的维数灾难问题。该工作基于n-gram模型,对神经网络进行训练,最大化上文的n个词语对当前词语的预测,获得了单词的分布式表示。

Collobert等人[62]率先尝试训练一种通用的单词嵌入表示,以帮助提升其他NLP任务的性能。这一思想,正是词向量预训练的雏形。然而,由于深度神经网络计算的复杂性,他们利用了单词成对排序任务而不是语言模型来学习词嵌入。

Mikolov等人[63]为了更方便地学习到一种通用的预训练单词嵌入表示,提出了Word2vec模型。该工作认为不需要深度神经网络来构建词嵌入,而采用了两种浅层架构:Continuous Bag-of-Words(CBOW)模型和Skip-Gram(SG)模型。虽然模型简单,但它们仍然可以学习到高质量的词嵌入表示以捕捉单词与单词之间潜在的句法和语义相似性。

Word2vec是目前学术界最流行的词嵌入方法之一,预训练好的Word2vec词嵌入可进一步用于NLP中各种不同的任务上。Word2vec代表了一类使用局部上下文窗口来捕捉词与词之间关系的词嵌入方法,它的优势在于能够捕捉词的语义和语法等相关信息,但因此也忽略了单词与单词之间的全局性关联。为了解决这一问题,Pennington等人[64]提出了GloVe模型,通过统计大型语料库的全局性词共现矩阵学习单词嵌入。在同一时期,许多研究人员还尝试学习段落、句子以及文档的嵌入表示,例如Paragraph Vector[65]、Skip-thought Vector[66]、Context2Vec[67]等。这些嵌入模型试图将输入的一段文本编码为固定维度的向量表示。

第三章基于预训练语言模型的Seq2Seq文本风格迁移方法..............................17

3.1 Guwen-UNILM框架................................17

3.2预训练阶段...............................18

第四章基于对比预训练的Seq2Seq文本风格迁移方法.........................27

4.1 ConTraST框架....................................27

4.2对比学习预训练阶段...................................28

第五章总结与展望.................30

第四章基于对比预训练的Seq2Seq文本风格迁移方法

4.1 ConTraST框架

如图4.1所示,ConTraST框架总体上由两阶段构成:1)对比学习预训练阶段以及2)风格迁移微调阶段。

在对比学习预训练阶段,首先采用回译系统对非平行的情感数据集进行数据增强,并在其上构建对比学习需要的正负样本对;然后采用内容-风格对偶编码器来编码这些正负样本对;最后利用InfoNCE损失函数进行对比学习预训练。

在风格迁移阶段,进一步微调经过对比学习预训练的编码器,以进行风格迁移任务。具体来说,使用了基于注意力机制的解码器,并且利用文本风格鉴别