共查询到18条相似文献,搜索用时 102 毫秒
1.
2.
基于专家系统的无人战斗机智能决策系统 总被引:3,自引:1,他引:2
在无人战斗机智能决策系统中,引入专家系统,通过对无人战斗机对地攻击战术进行分析与总结,建立了对地攻击战术知识库,设计和构造了无人战斗机对地攻击智能决策系统的原型,通过无人战斗机对地自动攻击的大量仿真研究表明,所设计与构造的智能决策系统是可行有效的. 相似文献
3.
“雷神”隐形无人打击战斗机。2014年2月5日,英国国防部和BAE系统集团联合对外宣布英空军首型隐形无人打击战斗机“雷神”(也有音译为“塔拉尼斯”,后文简称“雷神”)是英国历史上最先进的飞机, 相似文献
4.
当前,有人驾驶战斗机、轰炸机和攻击机仍然是空中作战与对地攻击的主力。但随着空战武器和一体化防空系统的发展,有人驾驶飞机在未来战场遂行空中格斗、对地(舰)轰炸与攻击时,将冒着更大的风险、付出更高的代价。为此,世界主要军事强国早已开始研究和评估无人作战飞机(UCAV)的军事功能和实战价值。 UCAV包括战斗无人机、轰炸无人机和攻击无人机等,主要用于发现、识别和摧毁地面固定和移动目标,用火力压制敌防空力量,以及与空中目标进行格 相似文献
5.
发展无人作战飞机的技术与战略问题 总被引:1,自引:0,他引:1
进入21世纪,随着新型无人机种——无人作战飞机的出现,无人机将一改在战场上仅仅充当辅助角色的状况,除了执行空中侦察、战场监视和毁伤评估等作战支援任务外,还能执行压制敌防空系统、对地攻击,甚至对空作战等主要作战任务。无人作战飞机不仅能在未来战场上与有人战斗机并肩作战,甚至在某些情况下替代后者,成为未来空中作战的主力航空武器装备之一。无人作战飞机的出现具有重要的战略意义,必将引起未来空中作战的组织编制、条例条令、作战原则、战术思想乃至装备采购策略等方面的变革。 相似文献
6.
无人战斗机技术要素研究 总被引:2,自引:0,他引:2
无人战斗机作为介于有人战斗机和巡航导弹之间的一种新型武器系统,将在未来空战中发挥重大作用。主要对目前存在的无人战斗机(UCAV)概念进行了讨论,分析了无人战斗机的基本性能和技术要素,提出了未来无人战斗机的发展趋势。 相似文献
7.
战斗机一般用于制空作战。但为了进一步提高对目标的实时侦察能力,尤其是满足打击“时间敏感”目标的需求,许多国家除继续改进在役侦察机并装备无人侦察机外,还在战斗机上安装战术侦察系统,使其能兼顾执行侦察任务。在无人侦察机开始在战争中崭露头角的今天,外军战斗机机载战术侦察系统/侦察吊舱的发展体现出了另外一种重要的趋势。美军战斗机机载战术侦察系统美海军和空军都为各自的战斗机研制了机载战术侦察系统,这些侦察系统 相似文献
8.
编辑同志: “无人战斗机”是当前新兵器中引人注目的宠儿。这次阿富汗战争中,美军“掠食者”无人战斗机发射导弹并击中目标之后,标志着无人战斗机已经走进战场。 为什么要发展无人战斗机呢?如果仅仅是为了减少飞行员伤亡这个目的的话,似乎不太必要。因为众所周知,现在的战斗机已经十分先进,而且装备有可以在“火力圈外”实施准确打击的导弹,也就 相似文献
9.
2012年12月1日,欧洲“神经元”无人作战飞机验证机在法国成功首飞。该机是欧洲多国合作研制的首架无人作战飞机,也是欧洲自主设计的第一架隐身作战飞机。“神经元”验证机采用无垂直尾翼设计,机长10米,翼展12.5米,空重5吨,尺寸接近一架战斗机。 相似文献
10.
国外舰载战斗机发展现状及其 关键技术 总被引:1,自引:0,他引:1
《现代军事》2007,(3)
舰载战斗机以航空母舰等大型舰船为基地,国外现役主要机型包括美国 F/A-18C/D"大黄蜂"和 F/A-18E/F"超级大黄蜂"、俄罗斯"苏-33"、法国"陈风 M"和英车"鹞"以及英/美 AV-8B"鹞Ⅱ",在研机型则有美国 F-35B/C 联合攻击战斗机(JSF)和俄罗斯为印度发展的"米格-29K"。与陆基飞机相比,舰载战斗机有着明显不同的使用环境与特点,因此在研制过程中必须考虑很多特殊因素,包括机-舰适配性、气动增升设计、动力装置要求、机体特殊结构、专用机载设备、海上防腐和综合保障设计等。本文概述了国外现役主要舰载战斗机和在研机型的发展现状及其总体设计特点,分析并归纳总结了舰载战斗机的特有/关键技术及其研制途径。 相似文献
11.
12.
《防务技术》2022,18(9):1697-1714
To solve the problem of realizing autonomous aerial combat decision-making for unmanned combat aerial vehicles (UCAVs) rapidly and accurately in an uncertain environment, this paper proposes a decision-making method based on an improved deep reinforcement learning (DRL) algorithm: the multi-step double deep Q-network (MS-DDQN) algorithm. First, a six-degree-of-freedom UCAV model based on an aircraft control system is established on a simulation platform, and the situation assessment functions of the UCAV and its target are established by considering their angles, altitudes, environments, missile attack performances, and UCAV performance. By controlling the flight path angle, roll angle, and flight velocity, 27 common basic actions are designed. On this basis, aiming to overcome the defects of traditional DRL in terms of training speed and convergence speed, the improved MS-DDQN method is introduced to incorporate the final return value into the previous steps. Finally, the pre-training learning model is used as the starting point for the second learning model to simulate the UCAV aerial combat decision-making process based on the basic training method, which helps to shorten the training time and improve the learning efficiency. The improved DRL algorithm significantly accelerates the training speed and estimates the target value more accurately during training, and it can be applied to aerial combat decision-making. 相似文献
13.
14.
15.
16.
17.