计算机软件论文栏目提供最新计算机软件论文格式、计算机软件硕士论文范文。详情咨询QQ:1847080343(论文辅导)

基于深度学习的RCS预测算法探讨

日期:2024年11月02日 编辑:ad201107111759308692 作者:无忧论文网 点击次数:20
论文价格:150元/篇 论文编号:lw202410291530448118 论文字数:32555 所属栏目:计算机软件论文
论文地区:中国 论文语种:中文 论文用途:硕士毕业论文 Master Thesis

本文是一篇计算机软件论文,本文主要将目标RCS 序列预测作为时序预测问题进行研究,通过构建神经网络模型实现对目标已知RCS数据学习,从而对未知方位向、俯仰向的目标RCS数据做出预测,以提高预测的时效性、降低计算复杂度。

1 绪

1.1 研究背景及意义

雷达作为现在军事领域和生产生活中常见的探测器[1],由于探测距离远、可随时跟踪,不仅是军事上不可或缺的侦查装备,而且在诸多的民用领域,比如天气预报、环境检测等领域也表现出优异的应用潜力[2]。雷达向目标发射电磁波信号,随后接收目标反射、散射、绕射等方式产生的回波信号,对这些回波信号进行分析可以获取关键的电磁散射特性——雷达散射截面(RCS)[3-5]。在真实战场中,军事目标(如飞行器、舰船等)的雷达隐身技术直接影响他们的战斗防御能力和突击能力[6]。对于舰船和飞行器等电大尺寸目标,主要以减少对探测波的有效反射以减小雷达横截面积。这种做法有助于缩小敌方雷达探测范围,减少被敌方探测雷达发现的可能性,从而增强在实战中的生存和作战能力。

目标的雷达横截面积反映了其对电磁波的反射能力,是评估目标反射电磁波强度的物理量,对目标回波数据的质量产生一定影响[7]。当电磁波照射到目标后返回的电磁波量越少,目标的雷达横截面积就越小。雷达散射截面积的研究对于认知雷达的资源管理、波形优化、目标检测、目标成像、目标识别等有极为重要的意义[8]。在文献[9]的雷达资源优化管理中,基于对目标 RCS变化趋势的准确估计和判断,能够更加合理的分配雷达资源,从而确保目标的回波品质,确保雷达的测量精度;在文献[10]的目标检测中,对于低信噪比的目标回波,若目标RCS预测准确,则可以发射波形进行针对性优化,提高目标检测性能;在文献[11]的波形优化中,在确保目标雷达横截面(RCS)准确估计的前提下,有针对性地选择发射波形,有助于雷达以最佳方式从回波中提取目标信息,从而提升雷达的性能。因此,对目标RCS进行准确预测和分析有助于推断雷达目标的尺寸、形状、姿态等信息,进而借助先验信息实现对目标型号的准确识别和分类。

计算机软件论文怎么写

1.2 国内外研究现状

目标的雷达横截面积是一个动态参数,当目标在空间中进行不断移动时,雷达对其照射的角度和目标的运动方式也在不断的变化。对于形状、材料和表面特性各异的目标,雷达入射角以及目标运动姿态的变化会引起目标散射截面积产生较大的波动,这种现象难以使用理论推导的方式得到确切的物理模型[13]。因此,通常将目标的雷达横截面积作为固定值,或者将RCS的波动模型以概率统计的方式描述为一种概率分布模型,即常见的施威林(Swerling)波动模型[14]。但是施威林模型仅能大致描绘目标RCS的变化趋势,或提供一个固定的基准值,难以精准预测特定时刻目标的RCS值。因此,在实际雷达环境中,其应用受到一定约束。

目标雷达散射截面(RCS)序列的预测已经成为国内外许多研究的重点。文献[15]将复杂目标分解成一个个简单体,如三角形,再用射线跟踪的方法对RCS序列进行估计。文献[16]与文献[17]对RCS序列估计的方法是模态法, 根据目标具体的物理形状和起伏特性,结合电磁波散射原理来对雷达目标的RCS作预测。文献[18]主要介绍了如何利用物体光学法对RCS序列进行估计, 该方法需要先获得目标的光学形态,针对具体的光学形态对RCS进行分析与计算。在文献[19]与文献[20]中,将RCS观测序列分解为常量与噪声从而预测RCS序列, 通过估计的方法获取雷达目标RCS当前时刻较为准确的近似值,并用于雷达对目标的探测跟踪, 然而该方法只能获取目标RCS当前时刻较为准确的估计值,却无法对下一时刻目标的RCS作预测。文献[21]与文献[22]假定目标具体形状己知,根据目标形状得到散射方程从而估计目标随角度变化的RCS序列。文献[23]中表明目标距离雷达较远同时回波信号噪声功率比小时,难以通过文献[24-26]中的方法识别获得目标的物理属性。文献[27]提出了一种仅通过雷达回波来获取、计算、预测目标RCS值的方法。这一方法首先通过建立雷达对目标的跟踪,利用回波数据获取目标在当前时刻的雷达散射截面(RCS)测量值。

2  RCS预测技术相关原理

2.1 雷达横截面积

2.1.2 RCS预测方法

RCS值的获取有两种方式,一种为理论计算,另一种为实际测量。通常RCS值的理论计算方法主要分为精确法和近似法两种。精确法在求解过程中对条件有严格要求,并且需要满足预先设定的条件关系,在计算过程中需要进行离散化处理等步骤从而获取RCS的准确数值大小。精确法只适用于满足预先条件且波动方程可分离的目标物体,因此适用范围较为有限。为了克服这一限制,近似法对精确法进行了改进。近似法通过对不符合条件的目标进行进一步简化计算得到相似解,进而扩大了应用范围,适合于对电大尺寸目标进行计算。

雷达散射截面并非仅仅表示照射面积,而是受目标自身和雷达照射波特性影响而变化。通过理论分析等方法获取目标雷达横截面积的复杂度高且实时性差,无法满足实际需求。基于深度学习预测目标RCS,能够充分利用目标RCS数据的信息,提取关键特征,实现对目标RCS高效准确的预测。目前的RCS数据维度较少,因此需要对当前主流的网络模型结构进行适当改进,同时根据RCS数据自身特性对数据集做特定修改,以适用于RCS预测任务中。

2.3 注意力机制

在机器学习领域,注意力机制作为一种仿生学习思维的强大工具,逐渐引起了广泛的关注。其核心理念是通过模拟人类的专注和关注方式,让模型能够更灵活、更精准地处理输入数据。在深度学习中,需要处理输入的大量信息,其中可能包含大量冗余以及无用信息,直接将所有信息输入神经网络进行训练可能导致模型过拟合或无法收敛。为了解决这些问题,注意力机制被提出。通过学习,注意力机制能够选择性地关注一些输入信息,从而提高模型的性能和鲁棒性[47]。


注意力机制的基本思想是模型在处理输入序列时,不是一概而论地对整个序列进行处理,而是选择性地关注序列中的特定部分。这种关注的强度由权重来决定,每个位置的权重表示了模型对该位置的关注程度。在注意力机制中,一般将输入信息表示三个部分,分别为“查询(query)”、“键(key)”和“值(value)”。每个查询首先需要计算其与所有键的相似度,再根据这些相似度与所有值做加权求和操作,从而输出最后的计算结果。常用的注意力计算方式包括点积注意力、加性注意力、多头注意力等。

一种重要的注意力机制是自注意力机制,自注意力机制允许模型在处理序列数据时,给予不同位置不同的关注度。这种机制的突出应用体现在Transformer模型中,通过多头自注意力机制,Transformer在翻译、文本生成等任务中取得了巨大成功。为了提高模型的表达能力,研究者们引入了多头注意力机制。多头注意力允许模型同时学习不同的关注度,将多个注意力头的输出进行拼接或线性变换,以得到更为复杂和全面的特征表示。

注意力机制在各种深度学习任务中都有广泛的应用,例如机器翻译、语音识别、图像分类、自然语言处理等。在机器翻译任务中,注意力机制可以提高模型识别源语言和目标语言二者间的关联程度以提高模型翻译结果的准确性[48];在语音识别任务中,注意力机制可以帮助模型更专注于关键的语音信号信息[49];在图像分类任务中,注意力机制可以使模型更加注意重要图像信息,从而提高分类精确率和鲁棒性[50,51]。

3  基于残差结构和数据增强的目标RCS预测算法设计与实现 ..................... 14

3.1 残差网络 .................................. 14

3.2 高斯数据增强 .................................. 18

3.3 实验步骤 .................................. 18

4  基于长短时记忆网络的目标RCS预测算法设计与实现 ..................... 26

4.1 基于LSTM的目标RCS预测 ........................... 26

4.1.1 LSTM结构及实现 ................................. 26

4.1.2 无偏风险估计阈值 ............................. 30

5  基于改进Informer模型的目标RCS预测算法设计与实现 .................. 35

5.1 Informer模型及其改进 ....................... 35

5.1.1 Informer模型 ................................. 35

5.1.2 Informer模型存在的问题及改进 ............................... 38

5  基于改进Informer模型的目标RCS预测算法设计与实现

5.1 Informer模型及其改进

5.1.1 Informer模型

基于Transformer的时序模型通过自注意力获取时序之间的关联并在时间序列预测问题上取得了一定进展。但是在长期序列预测中,仍存在不足:

(1)self-attention机制的二次计算复杂度问题。self-attention机制的点积操作使每层的时间复杂度为O ( L2 ) ,其中L表示序列长度。

(2)长输入堆叠层的内存瓶颈,这将导致内存的过高使用。对长序列输入进行堆叠时,J个encoder-decoder层的堆栈使总内存使用量为O (J∗ L2 ),高内存使用限制模型对长时序序列接收时的可伸