全文获取类型
收费全文 | 2441篇 |
免费 | 457篇 |
国内免费 | 318篇 |
出版年
2024年 | 26篇 |
2023年 | 123篇 |
2022年 | 87篇 |
2021年 | 184篇 |
2020年 | 163篇 |
2019年 | 88篇 |
2018年 | 30篇 |
2017年 | 72篇 |
2016年 | 115篇 |
2015年 | 102篇 |
2014年 | 192篇 |
2013年 | 151篇 |
2012年 | 196篇 |
2011年 | 181篇 |
2010年 | 165篇 |
2009年 | 175篇 |
2008年 | 163篇 |
2007年 | 135篇 |
2006年 | 105篇 |
2005年 | 102篇 |
2004年 | 86篇 |
2003年 | 77篇 |
2002年 | 89篇 |
2001年 | 74篇 |
2000年 | 49篇 |
1999年 | 50篇 |
1998年 | 66篇 |
1997年 | 30篇 |
1996年 | 25篇 |
1995年 | 24篇 |
1994年 | 25篇 |
1993年 | 13篇 |
1992年 | 13篇 |
1991年 | 12篇 |
1990年 | 10篇 |
1989年 | 16篇 |
1988年 | 1篇 |
1987年 | 1篇 |
排序方式: 共有3216条查询结果,搜索用时 15 毫秒
771.
772.
773.
774.
775.
近年来,基于深度强化学习的机器学习技术突破性进展为智能博弈对抗提供了新的技术发展方向。针对智能对抗中异构多智能体强化学习算法训练收敛速度慢,训练效果差异大等问题,提出了一种先验知识驱动的多智能体强化学习博弈对抗算法PK-MADDPG,构建了双重Critic框架下的MADDPG模型。该模型使用了经验优先回放技术来优化先验知识提取,在博弈对抗训练中取得显著的效果。论文成果应用于MaCA异构多智能体博弈对抗全国竞赛,将PK-MADDPG算法与经典规则算法的博弈对抗结果进行比较,验证了所提算法的有效性。 相似文献
776.
针对策略未知逃逸无人机环境中多无人机协同追捕对抗任务,提出P3C-MADDPG算法的多无人机协同追捕对抗策略。首先,为解决多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient, MADDPG)算法训练速度慢和Q值高估问题,在MADDPG算法中分别采用基于树形结构储存的优先经验回放机制(Prioritized Experience Replay, PER)和设计的3线程并行Critic网络模型,提出P3C-MADDPG算法。然后基于构建的无人机运动学模型,设计追逃无人机的状态空间、稀疏奖励与引导式奖励相结合的奖励函数、加速度不同的追逃动作空间等训练要素。最后基于上述训练要素,通过P3C-MADDPG算法生成策略未知逃逸无人机环境中多无人机协同追捕对抗策略。仿真实验表明,P3C-MADDPG算法在训练速度上平均提升了11.7%,Q值平均降低6.06%,生成的多无人机协同追捕对抗策略能有效避开障碍物,能实现对策略未知逃逸无人机的智能追捕。 相似文献
777.
778.
探索性仿真实验是一种认识、研究战争的重要手段,但往往面临想定样本空间复杂程度高,空间维度爆炸等问题。针对上述问题,提出一种定性定量相结合的基于多标签学习的实验因素筛选方法。首先,基于定性分析设计并实施仿真预实验,采集处理实验数据,解决机器学习样本数据缺失问题;随后,引入输入控制层搭建深度神经网络,引入稀疏正则化,在多标签模型训练过程中实现特征选择;然后,回归定性分析,补充完善实验因素;最后,以某作战样式下立体投送行动仿真推演为背景进行实验验证。实验结果表明,筛选的实验因素与作战行动现实情况吻合。 相似文献
779.
镜像是提高数据可用性的流行方法。借鉴RAID的方法,在算法一级实现数据的冗余分布,提出基于镜像的高可用数据对象布局算法。在数据对象和存储节点失效时,利用冗余数据重构数据对象和存储节点,有效保证存储系统的高可用性。采用马尔可夫激励模型对存储系统进行定量的可用性分析,计算结果表明该方法是有效的。 相似文献
780.