共查询到18条相似文献,搜索用时 93 毫秒
1.
2.
3.
针对空战中飞行机动与电子对抗之间的协同攻击决策问题,通过建立符合空战仿真需求的超视距基本战术动作库和运动模型,将机载火控雷达威力区、电子对抗干扰压制区和干扰条件下的空空导弹攻击区、允许脱离时间等要素有机结合,建立了电子干扰条件下空战态势与空战能力协同的综合优势评估方法.作战推演结果表明,建立的空战综合优势评估方法较全面合理地反映了现代空战的特点,能够满足现代空战机动决策需求. 相似文献
4.
5.
针对空战中机动决策速度慢、准确性低问题,提出基于强化麻雀搜索神经网络的空战机动决策方法,该方法分别考虑角度、距离、高度等因素构造相应的态势函数,将几种态势函数结合起来并加权得到态势评估函数,利用神经网络的黑盒部分计算各个态势函数的权值,利用混沌初始化和小孔成像反向学习策略强化麻雀搜索算法,再利用其特性去优化神经网络,将麻雀的适应度函数与神经网络的权值和阈值建立直接的映射关系,从而获得准确的态势评估函数,再将得到的态势评估函数结合博弈论模型得到博弈态势值,并由此来进行空战机动决策。仿真表明,该方法在与粒子群和遗传算法优化的神经网络模型相比之下,决策速度更快、准确性高,从而能获得空战优势,以获得最终的空战胜利。 相似文献
6.
为了处理协同空战目标分配过程中出现的不确定信息,将偏好规划理论引入到目标分配中,提出了基于偏好规划的编队协同空战目标分配模型。根据协同空战的特点,构建了飞机的空战能力评估体系,建立态势评估模型,在此基础上建立了协同空战目标分配模型。模型中指标和偏好的不确定性用区间形式表示,求解方法采用RICH法。对实例进行仿真,仿真结果说明该方法在不确定环境下的有效性。 相似文献
7.
8.
针对空战态势中威胁评估传统方法存在缺乏自学习能力和面对大样本数据集推理能力不足的问题,提出了利用深度学习的基于标准化全连接残差网络空战目标威胁评估的方法。将影响空战目标威胁的主要因素作为输入,利用普通全连接神经网络训练模型的自学习能力,结合批量标准化(Batch Normalization)的优化算法和结构优化的残差网络(ResNet)增强网络的自学习能力,比较了样本的标记和网络模型的输出。分析了训练样本个数对网络训练准确率和损失变化的影响,对比了3种不同数据量下的训练模型在同一测试集下测试的准确率和损失变化。结果表明,该方法可以快速准确地评估空战中目标的威胁程度。 相似文献
9.
10.
11.
12.
13.
14.
《防务技术》2022,18(9):1697-1714
To solve the problem of realizing autonomous aerial combat decision-making for unmanned combat aerial vehicles (UCAVs) rapidly and accurately in an uncertain environment, this paper proposes a decision-making method based on an improved deep reinforcement learning (DRL) algorithm: the multi-step double deep Q-network (MS-DDQN) algorithm. First, a six-degree-of-freedom UCAV model based on an aircraft control system is established on a simulation platform, and the situation assessment functions of the UCAV and its target are established by considering their angles, altitudes, environments, missile attack performances, and UCAV performance. By controlling the flight path angle, roll angle, and flight velocity, 27 common basic actions are designed. On this basis, aiming to overcome the defects of traditional DRL in terms of training speed and convergence speed, the improved MS-DDQN method is introduced to incorporate the final return value into the previous steps. Finally, the pre-training learning model is used as the starting point for the second learning model to simulate the UCAV aerial combat decision-making process based on the basic training method, which helps to shorten the training time and improve the learning efficiency. The improved DRL algorithm significantly accelerates the training speed and estimates the target value more accurately during training, and it can be applied to aerial combat decision-making. 相似文献
15.
16.
17.