随着人工智能技术广泛应用于军事装备领域,未来的战争将向智能化、无人化、高度信息化演变,现代化空战形态的演变对空战平台和机载武器系统提出了更高的要求。与此同时,装备性能的提升也对飞行员提出了更为严苛的要求。面对丰富的信息数据和剧烈变化的空战态势,如何提高飞行员战场感知能力和机动决策能力,成为当今航空装备发展亟待解决的问题。鉴于目前人工智能技术的局限性,本书仅对智能空战实时辅助决策方法进行研究。
本书以某型飞行训练系统的实际数据为研究基础,以一对一空战的战术辅助决策为研究背景,对战术辅助决策系统中态势特征提取、空战态势评估、智能体自主决策3个问题进行研究。
本书完成的主要工作如下:
(1)构建空战态势分类模型和态势特征提取模型。以某型飞行训练系统记录的空战数据为研究对象,以改进的密度峰值聚类算法为基础将某场空战的态势数据聚类为敌方优势、我方优势、双方均势、双方劣势4类。在此基础上,分别对各类态势数据采用主成分分析法提取出某一态势类型下的态势特征。掌握态势特征与态势类型的对应关系可以进一步提高飞行员对空战态势的感知能力。
(2)构建动态变权重的空战态势评估模型。针对态势评估中常权求和带来的信息动态性不够灵活的问题,本书在优势函数的基础上,基于贝叶斯态势分类模型,提出了动态变权重的近距空战态势评估方法。该方法考虑空战态势的变化特点,对评估的指标权重随态势类型变化做出动态调整;充分利用态势信息,刻画不同态势类型情况下指标对态势值的贡献值大小;通过空战数据仿真实验,验证本书所提方法在空战态势评估中的可行性和有效性。
(3)构建近似动态规划法的攻击占位决策模型。本书对二维空间的攻击占位决策问题进行了研究。本书针对近似动态规划法求解机动决策问题时的维数灾难问题,二维空间攻击占位决策模型,基于函数拟合的思想解决了空战状态的连续性问题;并且针对机动决策中的过冲和碰撞问题,对近似动态规划法进行改进。仿真结果表明,二维空间模型的机动决策模型能够有效避免过冲和碰撞问题。三维空间攻击占位决策模型,基于强化学习理论,在RBF神经网络的基础上,提出Q-V值协同逼近的状态动作值函数模型,并且采用神经网络的方法,将学习过程中得到的经验知识作为模型后续的训练样本,构建动态启发式动作搜索策略,提高了策略搜索的效率。仿真结果表明,基于Q-V值协同逼近的RBF神经网络智能体能够感知战场态势,并做出合理的机动决策。
(4)构建近似动态规划法的机动规避决策模型。针对空战机动规避决策之前预测敌方机动的规律,本书首先基于Adam 优化LSTM网络的方法构建敌方轨迹预测模型,然后在强化学习的框架下,将预测的航迹信息作为奖励信号,采取纳什均衡策略选取机动动作,最后基于经验回放的原理,构建Q-network机动规避决策模型。仿真结果表明智能体可以较为准确地对敌方航迹进行预测,并且针对当前的态势做出较为合理的规避决策。
王栋、姜龙亭和寇雅楠为本书主要编写人,薛国红和吴斌也参与了本书的编写工作。由于时间仓促,加之作者水平有限,本书错误之处在所难免,恳请各位读者批评指正。真诚地希望本书的研究可以为同方向的研究者提供新的研究思路,为同领域的研究者提供一定的参考。
著者
2019年12月