全文获取类型
收费全文 | 623篇 |
免费 | 10篇 |
国内免费 | 79篇 |
出版年
2024年 | 6篇 |
2023年 | 24篇 |
2022年 | 14篇 |
2021年 | 29篇 |
2020年 | 15篇 |
2019年 | 10篇 |
2018年 | 2篇 |
2017年 | 7篇 |
2016年 | 9篇 |
2015年 | 14篇 |
2014年 | 41篇 |
2013年 | 36篇 |
2012年 | 36篇 |
2011年 | 28篇 |
2010年 | 35篇 |
2009年 | 29篇 |
2008年 | 57篇 |
2007年 | 29篇 |
2006年 | 34篇 |
2005年 | 41篇 |
2004年 | 13篇 |
2003年 | 26篇 |
2002年 | 25篇 |
2001年 | 33篇 |
2000年 | 23篇 |
1999年 | 20篇 |
1998年 | 12篇 |
1997年 | 11篇 |
1996年 | 9篇 |
1995年 | 15篇 |
1994年 | 11篇 |
1993年 | 5篇 |
1992年 | 5篇 |
1991年 | 3篇 |
1990年 | 1篇 |
1989年 | 4篇 |
排序方式: 共有712条查询结果,搜索用时 15 毫秒
171.
172.
173.
针对策略未知逃逸无人机环境中多无人机协同追捕对抗任务,提出P3C-MADDPG算法的多无人机协同追捕对抗策略。首先,为解决多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient, MADDPG)算法训练速度慢和Q值高估问题,在MADDPG算法中分别采用基于树形结构储存的优先经验回放机制(Prioritized Experience Replay, PER)和设计的3线程并行Critic网络模型,提出P3C-MADDPG算法。然后基于构建的无人机运动学模型,设计追逃无人机的状态空间、稀疏奖励与引导式奖励相结合的奖励函数、加速度不同的追逃动作空间等训练要素。最后基于上述训练要素,通过P3C-MADDPG算法生成策略未知逃逸无人机环境中多无人机协同追捕对抗策略。仿真实验表明,P3C-MADDPG算法在训练速度上平均提升了11.7%,Q值平均降低6.06%,生成的多无人机协同追捕对抗策略能有效避开障碍物,能实现对策略未知逃逸无人机的智能追捕。 相似文献
174.
175.
176.
177.
178.
179.
随着信息技术在军事训练中的广泛应用及实战化训练改革的深入,针对步兵分队指挥对抗训练的难题,构建适应实战化训练要求的步兵分队指挥对抗模拟训练系统需求比较迫切。在分析系统建设总体目标的基础上,对系统功能设计和系统结构设计进行了研究。 相似文献
180.