全文获取类型
收费全文 | 635篇 |
免费 | 44篇 |
国内免费 | 106篇 |
出版年
2024年 | 15篇 |
2023年 | 36篇 |
2022年 | 38篇 |
2021年 | 57篇 |
2020年 | 42篇 |
2019年 | 23篇 |
2018年 | 7篇 |
2017年 | 28篇 |
2016年 | 39篇 |
2015年 | 35篇 |
2014年 | 60篇 |
2013年 | 55篇 |
2012年 | 55篇 |
2011年 | 55篇 |
2010年 | 41篇 |
2009年 | 33篇 |
2008年 | 36篇 |
2007年 | 23篇 |
2006年 | 17篇 |
2005年 | 21篇 |
2004年 | 5篇 |
2003年 | 14篇 |
2002年 | 16篇 |
2001年 | 14篇 |
2000年 | 6篇 |
1999年 | 4篇 |
1998年 | 2篇 |
1997年 | 2篇 |
1995年 | 1篇 |
1994年 | 1篇 |
1993年 | 1篇 |
1990年 | 2篇 |
1989年 | 1篇 |
排序方式: 共有785条查询结果,搜索用时 15 毫秒
151.
152.
153.
针对策略未知逃逸无人机环境中多无人机协同追捕对抗任务,提出P3C-MADDPG算法的多无人机协同追捕对抗策略。首先,为解决多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient, MADDPG)算法训练速度慢和Q值高估问题,在MADDPG算法中分别采用基于树形结构储存的优先经验回放机制(Prioritized Experience Replay, PER)和设计的3线程并行Critic网络模型,提出P3C-MADDPG算法。然后基于构建的无人机运动学模型,设计追逃无人机的状态空间、稀疏奖励与引导式奖励相结合的奖励函数、加速度不同的追逃动作空间等训练要素。最后基于上述训练要素,通过P3C-MADDPG算法生成策略未知逃逸无人机环境中多无人机协同追捕对抗策略。仿真实验表明,P3C-MADDPG算法在训练速度上平均提升了11.7%,Q值平均降低6.06%,生成的多无人机协同追捕对抗策略能有效避开障碍物,能实现对策略未知逃逸无人机的智能追捕。 相似文献
154.
155.
任务分配是多UCAV协同控制的核心和有效保证。分析了影响目标价值毁伤、UCAV损耗、任务消耗时间等三项关键战技指标的因素,综合考虑实战中多UCAV同时攻击同一目标和使用软杀伤武器这两种典型情况对UCAV执行任务的影响,建立了针对攻击任务的多UCAV协同任务分配模型,并应用粒子群算法求解。仿真结果验证了模型的合理性和算法的有效性。 相似文献
156.
157.
158.
基于态势分布的多机编队协同目标分配,可以使编队长机在空战过程中的目标分配决策更加合理化。分析了敌机对我机的态势威胁影响因素,构建了敌我双方的对抗系数矩阵;依据编队内成员的占位关系和编队僚机火力情况,将我机僚机和敌机编队拆分成作战分队形式;基于整个态势分布,综合考虑编队攻击效率和航迹防撞规则,以作战分队形式进行目标分配。目标分配结果符合编队协同空战的一般规律,表明所提方法可以为编队协同作战提供目标分配支持。 相似文献
159.