全文获取类型
收费全文 | 2468篇 |
免费 | 406篇 |
国内免费 | 266篇 |
出版年
2024年 | 20篇 |
2023年 | 98篇 |
2022年 | 60篇 |
2021年 | 96篇 |
2020年 | 141篇 |
2019年 | 74篇 |
2018年 | 23篇 |
2017年 | 66篇 |
2016年 | 94篇 |
2015年 | 97篇 |
2014年 | 196篇 |
2013年 | 144篇 |
2012年 | 206篇 |
2011年 | 189篇 |
2010年 | 186篇 |
2009年 | 176篇 |
2008年 | 177篇 |
2007年 | 141篇 |
2006年 | 116篇 |
2005年 | 105篇 |
2004年 | 102篇 |
2003年 | 91篇 |
2002年 | 120篇 |
2001年 | 89篇 |
2000年 | 57篇 |
1999年 | 47篇 |
1998年 | 57篇 |
1997年 | 33篇 |
1996年 | 27篇 |
1995年 | 26篇 |
1994年 | 19篇 |
1993年 | 11篇 |
1992年 | 13篇 |
1991年 | 19篇 |
1990年 | 10篇 |
1989年 | 12篇 |
1987年 | 2篇 |
排序方式: 共有3140条查询结果,搜索用时 15 毫秒
131.
132.
133.
134.
135.
136.
137.
138.
139.
140.
针对空中对抗环境中多对多拦截的武器目标分配问题,提出了一种基于强化学习的多目标智能分配方法。在多对多拦截交战场景下,基于交战态势评估构建了目标分配的数学模型。通过引入目标威胁程度和拦截有效程度的概念,充分反映了各目标的拦截紧迫性和各拦截器的拦截能力表征,从而全面评估了攻防双方的交战态势。在目标分配模型的基础上,将目标分配问题构建为马尔可夫决策过程,并采用基于深度Q网络的强化学习算法训练求解。依靠环境交互下的自学习和奖励机制,有效实现了最优分配方案的动态生成。通过数学仿真构建多对多拦截场景,并验证了该方法的有效性,经训练后的目标分配方法能够满足多对多拦截中连续动态的任务分配要求。 相似文献