全文获取类型
收费全文 | 598篇 |
免费 | 10篇 |
国内免费 | 79篇 |
出版年
2024年 | 5篇 |
2023年 | 23篇 |
2022年 | 12篇 |
2021年 | 19篇 |
2020年 | 13篇 |
2019年 | 11篇 |
2018年 | 2篇 |
2017年 | 7篇 |
2016年 | 9篇 |
2015年 | 14篇 |
2014年 | 41篇 |
2013年 | 38篇 |
2012年 | 35篇 |
2011年 | 27篇 |
2010年 | 34篇 |
2009年 | 30篇 |
2008年 | 55篇 |
2007年 | 27篇 |
2006年 | 35篇 |
2005年 | 41篇 |
2004年 | 13篇 |
2003年 | 25篇 |
2002年 | 24篇 |
2001年 | 32篇 |
2000年 | 21篇 |
1999年 | 20篇 |
1998年 | 12篇 |
1997年 | 10篇 |
1996年 | 9篇 |
1995年 | 15篇 |
1994年 | 10篇 |
1993年 | 5篇 |
1992年 | 5篇 |
1991年 | 3篇 |
1990年 | 1篇 |
1989年 | 4篇 |
排序方式: 共有687条查询结果,搜索用时 15 毫秒
161.
针对传统意图识别算法在现代化空中对抗中识别飞机行动意图结果存在冲突,甚至无法识别目标意图的问题,提出了一种基于代价敏感多类别三支决策的目标意图识别方法;建立意图识别与代价敏感多类别三支决策相结合的数学模型,在每一个识别阶段计算出误分类代价损失值最小的那一种意图分类,得到唯一的识别结果,避免冲突结果的产生,同时,引入误分类代价第二最小损失的分类结果作为延迟域的备选选项,弥补多类别三支决策延迟域缺失的这一状况。最后通过仿真实验,验证了设计算法的有效性。 相似文献
162.
针对策略未知逃逸无人机环境中多无人机协同追捕对抗任务,提出P3C-MADDPG算法的多无人机协同追捕对抗策略。首先,为解决多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient, MADDPG)算法训练速度慢和Q值高估问题,在MADDPG算法中分别采用基于树形结构储存的优先经验回放机制(Prioritized Experience Replay, PER)和设计的3线程并行Critic网络模型,提出P3C-MADDPG算法。然后基于构建的无人机运动学模型,设计追逃无人机的状态空间、稀疏奖励与引导式奖励相结合的奖励函数、加速度不同的追逃动作空间等训练要素。最后基于上述训练要素,通过P3C-MADDPG算法生成策略未知逃逸无人机环境中多无人机协同追捕对抗策略。仿真实验表明,P3C-MADDPG算法在训练速度上平均提升了11.7%,Q值平均降低6.06%,生成的多无人机协同追捕对抗策略能有效避开障碍物,能实现对策略未知逃逸无人机的智能追捕。 相似文献
163.
164.
165.
166.
167.
168.
170.