(3)若进行长输出预测,会导致预测速度过慢。原始 Transformer 的动态解码操作导致逐步推理的速度如同基于 RNN 的模型一样慢。
针对上述问题,以Transformer为基础,Informer主要做出了以下改进:
(1)将常规的自注意力机制替换为稀疏概率自注意力,降低了self-attention的计算复杂度和空间复杂度,时间复杂度由为O(L2)降低为O( L∗log𝐿𝐿);
(2)提出了自注意力蒸馏机制,该操作使每层的输入序列长度缩短,通过正则卷积和池化操作缩短每一层的输入序列长度,降低了 J 个堆叠层的内存使用量;
(3)提出了生成式的解码器机制,改变解码方式,能够使模型的预测时一步获取结果,而不是逐步推理,直接将预测时间复杂度由 O(𝑁𝑁)降到了O(1),同时避免逐步预测造成的误差累计。
6 总结与展望
6.1 本文工作总结
本文主要将目标RCS 序列预测作为时序预测问题进行研究,通过构建神经网络模型实现对目标已知RCS数据学习,从而对未知方位向、俯仰向的目标RCS数据做出预测,以提高预测的时效性、降低计算复杂度。本文将目标RCS序列预测细分为两种预测方式: 在输入数据为单一俯仰角下等间隔方向角这一限定条件下所进行的多步迭代周向RCS值预测;以某一俯仰角下多组方向角对应的RCS值为输入,模型输出为该俯仰角下剩余方向角对应RCS值。主要进行的工作如下:
(1)以BP神经网络为基础,提出在隐藏层中加入残差连接块以及引入高斯数据增强的RCS预测方法。为符合特定场景需求,限定输入数据为单一俯仰角下等间隔方向角,以此进行多步迭代周向RCS值预测。在该限定条件下数据集为单一方向角下的周向RCS值,数据量过少,因此提出在原数据加入合适的高斯噪声数据方法以增强训练数据,从而提高模型的预测效果。通过多组实验找到为数据集中添加高斯噪声合适的均值和方差。实验结果表明引入合适的高斯噪声数据能够有效提高模型的预测效果。
(2)以某一俯仰角下多组方向角对应的RCS值为输入,使用LSTM模型和CNNLSTM对该俯仰角下剩余方向角对应RCS值预测。通过分析LSTM的不足,结合卷积网络的特性,将CNN与LSTM模型结合用于RCS序列预测。实验结果表明,LSTM能够满足长序列RCS预测,同时,将CNN与LSTM模型结合能够进一步提高模型预测精度。
(3)改进了Informer模型。针对Informer模型编码器中蒸馏操作会造成特征缺失进而影响预测精度这一问题,对Informer模型中编码器进行优化,引入扩张因果卷积并对编码器中的一维卷积操作进行替换。通过引入扩张因果卷积,使得模型能够获取更多的历史数据信息,同时随着网络层数的不断增加,使得有效窗口也随之增长,从而使模型以较少层数得到更多的数据信息,降低了模型的复杂度,同时提升了模型对RCS预测结果准确率。由模型在测试集中预测结果的均方误差、平均绝对误差和可视化测试集中部分结果两方面说明改进后的Informer模型提高了RCS序列预测的精度。
参考文献(略)