全文获取类型
收费全文 | 304篇 |
免费 | 44篇 |
国内免费 | 27篇 |
出版年
2024年 | 4篇 |
2023年 | 7篇 |
2022年 | 5篇 |
2021年 | 10篇 |
2020年 | 16篇 |
2019年 | 11篇 |
2018年 | 3篇 |
2017年 | 10篇 |
2016年 | 9篇 |
2015年 | 7篇 |
2014年 | 24篇 |
2013年 | 18篇 |
2012年 | 22篇 |
2011年 | 20篇 |
2010年 | 21篇 |
2009年 | 26篇 |
2008年 | 31篇 |
2007年 | 24篇 |
2006年 | 14篇 |
2005年 | 11篇 |
2004年 | 15篇 |
2003年 | 11篇 |
2002年 | 14篇 |
2001年 | 4篇 |
2000年 | 6篇 |
1999年 | 4篇 |
1998年 | 4篇 |
1997年 | 4篇 |
1996年 | 1篇 |
1995年 | 3篇 |
1994年 | 2篇 |
1993年 | 1篇 |
1992年 | 4篇 |
1991年 | 1篇 |
1990年 | 4篇 |
1989年 | 2篇 |
1988年 | 2篇 |
排序方式: 共有375条查询结果,搜索用时 15 毫秒
91.
92.
针对策略未知逃逸无人机环境中多无人机协同追捕对抗任务,提出P3C-MADDPG算法的多无人机协同追捕对抗策略。首先,为解决多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient, MADDPG)算法训练速度慢和Q值高估问题,在MADDPG算法中分别采用基于树形结构储存的优先经验回放机制(Prioritized Experience Replay, PER)和设计的3线程并行Critic网络模型,提出P3C-MADDPG算法。然后基于构建的无人机运动学模型,设计追逃无人机的状态空间、稀疏奖励与引导式奖励相结合的奖励函数、加速度不同的追逃动作空间等训练要素。最后基于上述训练要素,通过P3C-MADDPG算法生成策略未知逃逸无人机环境中多无人机协同追捕对抗策略。仿真实验表明,P3C-MADDPG算法在训练速度上平均提升了11.7%,Q值平均降低6.06%,生成的多无人机协同追捕对抗策略能有效避开障碍物,能实现对策略未知逃逸无人机的智能追捕。 相似文献
93.
介绍一种利用交流信号的采样值求出交流信号周期的简便方法。该算法原理简单、编程容易,同时大大简化了外部硬件电路。 相似文献
96.
97.
98.
二十一世纪初,我军社会化改革,必须抓住生活保障社会化改革,通用物资筹措、供应、储备社会化改革,基础设施建设社会化改革和人才培养、科研社会化改革等主要改革项目;要注意构建高效的运行机制、完善社会化保障平战转换功能,要与联勤改革、军队采购制度融合推进。 相似文献
99.
100.