全文获取类型
收费全文 | 951篇 |
免费 | 19篇 |
国内免费 | 22篇 |
出版年
2024年 | 15篇 |
2023年 | 27篇 |
2022年 | 13篇 |
2021年 | 16篇 |
2020年 | 17篇 |
2019年 | 5篇 |
2018年 | 1篇 |
2017年 | 4篇 |
2016年 | 10篇 |
2015年 | 24篇 |
2014年 | 69篇 |
2013年 | 82篇 |
2012年 | 93篇 |
2011年 | 74篇 |
2010年 | 58篇 |
2009年 | 78篇 |
2008年 | 58篇 |
2007年 | 66篇 |
2006年 | 45篇 |
2005年 | 79篇 |
2004年 | 19篇 |
2003年 | 27篇 |
2002年 | 32篇 |
2001年 | 31篇 |
2000年 | 15篇 |
1999年 | 9篇 |
1998年 | 5篇 |
1997年 | 9篇 |
1996年 | 3篇 |
1995年 | 4篇 |
1994年 | 1篇 |
1992年 | 2篇 |
1991年 | 1篇 |
排序方式: 共有992条查询结果,搜索用时 15 毫秒
231.
党的十六大报告指出:“实践基础上的理论创新是社会发展和变革的先导。通过理论创新推动制度创新、科技创新、文化创新以及其他各方面的创新,不断在实践中探索前进,永不自满、永不懈怠,这是我们要长期坚持的治党治国之道。”这一重要论述,对理论创新提出了具体要求。一方面,理论创新要在实践基础上进行,又要能指 相似文献
232.
针对可靠性强化试验的全轴随机振动环境的超高斯幅值分布特性开展其疲劳强化机理研究。首先通过理论分析表明RS机振动激励下试件应力仍保持超高斯分布,然后证明了同等量级下的超高斯分布比高斯分布随机应力具有更高的疲劳强化效能,从而揭示RS机全轴随机振动环境超高斯幅值分布特性的疲劳强化机理。 相似文献
233.
针对可疑用户可能利用无线通信危害公共安全的问题,通过智能反射面和无人机组合的方法来帮助合法监视器监听可疑链路。首先,考虑了无人机与地面用户以及地面用户之间复杂的信道交互,构建了一个合法监视器监听速率最大的优化问题。其次,为了解决这个复杂的非凸优化问题,采用深度强化学习技术,将无人机的轨迹规划和智能反射面的相移变化问题建模为马尔可夫决策过程,设计了相应的奖励函数,并基于最大熵的深度强化学习算法实现无人机和智能反射面相移设计的联合优化。最后,从仿真结果看,与无智能反射面的优化方案相比,有智能反射面的优化方案不仅提高了合法监视器的监听速率,还降低了无人机的能耗,另外智能反射面反射单元的不同数量也会对监听速率产生影响。同时,相较于近端策略优化,基于最大熵的深度强化学习算法的优化策略拥有更稳定的训练过程和更快的收敛速度。 相似文献
234.
针对未知环境下四旋翼无人机姿态控制实现难、鲁棒性差等问题,提出了基于深度确定性策略(DDPG)算法的智能姿态控制方法。首先,基于欧拉-庞卡莱方程,利用计算机符号推导,建立四旋翼的动力学模型;其次,基于DDPG算法设计四旋翼的姿态控制器,并在奖励函数设计中引入姿态误差、姿态角速度误差和控制量惩罚项;最后,通过设置不同初始状态值、改变四旋翼结构参数和引入噪声等仿真试验,分析验证控制器的性能。仿真结果表明,该控制器能够引导四旋翼快速响应到期望姿态并保持稳定,同时展现出较好的泛化能力。 相似文献
235.
近年来,基于深度强化学习的机器学习技术突破性进展为智能博弈对抗提供了新的技术发展方向。针对智能对抗中异构多智能体强化学习算法训练收敛速度慢,训练效果差异大等问题,提出了一种先验知识驱动的多智能体强化学习博弈对抗算法PK-MADDPG,构建了双重Critic框架下的MADDPG模型。该模型使用了经验优先回放技术来优化先验知识提取,在博弈对抗训练中取得显著的效果。论文成果应用于MaCA异构多智能体博弈对抗全国竞赛,将PK-MADDPG算法与经典规则算法的博弈对抗结果进行比较,验证了所提算法的有效性。 相似文献
236.
当前,军事斗争准备已进入实质性阶段,军队现代化建设正处在一个关键时期。征兵工作作为部队建设的基础工程,必须适应军事斗争准备和推进中国特色军事变革的要求,深化调整改革,提高兵员质量。随着市场经济的深入发展,兵员征集工作面临的矛盾越来越突出。多年来,尽管党中央、国务院、中央军委以及地方各级党委和政府,制定出台了一些措施和办法,但“完成征兵任务难,保证新兵质量更难”的问题依然很突出。一是适龄青年国防观念强弱不等,整体较弱。在长期的和平环境及市场经济利益观念的作用下,公民的国防意识和国防义务观念有所淡化。这一点在征… 相似文献
237.
将马尔可夫判决过程和智能强化学习算法相结合,给出了异构无线网络环境下用户业务偏好评估模型的技术框架。为动态环境下用户需求的感知、量化和适配特征的研究提供了基本的数学描述,对解决用户体验的评价问题和业务与业务环境的适配问题提供了新的研究思路。仿真结果表明所构建的MDP模型能够在多状态条件下学习用户偏好,根据用户需求智能选择业务。 相似文献
238.
针对在轨卫星规避拦截问题,提出了一种新的基于强化学习和三维李雅普诺夫导航向量场(3D-LGV)算法。首先,采用3D-LGV产生收敛于椭圆轨道的趋近律,保证规避拦截后能再次入轨。其次,针对拦截卫星利用扰动流体动态系统算法(IFDS)产生扰动流场,利用该扰动流场对导航向量场产生的趋近律进行修正,从而保证卫星能有效地规避拦截。由于IFDS算法中扰动流场大小和方向主要受其中反应系数和方向系数的影响,采用近端策略优化深度强化学习算法作为决策层输出反应系数和方向系数,用于指导卫星在不同场景下提供合适的对导航向量场的修正。最后,通过将IFDS算法修正后的趋近律作为卫星的最终运动方向,实现了整个规避过程。在构建的不同场景下进行了对比实验,结果表明,相较于滚动时域优化算法(RHC)、人工势场算法(APF)和传统IFDS算法,基于强化学习的算法决策时间更短、规避效果更好,在不同场景下均能实现有效规避。同时,对该算法进行蒙特卡洛仿真,统计结果显示卫星规避成功率高达98%。因此,此研究对智能方法在卫星规避拦截领域的应用具有一定价值。 相似文献
239.
针对局部可观测多智能体学习环境下,智能体与环境频繁交互造成环境不稳定,导致智能体无法使用经验回放机制(experience replay)的问题,采用了一种基于异环境重要性采样的回放经验利用机制。并结合该机制再深度强化学习算法,深度分布式循环Q网络(DDRQN)基础上进行了改进,提出一种增强型的深度分布式循环Q网络。通过对Deep Mind的Py SC2平台Defeat Roaches局部可观测多智能体学习环境实验结果对比分析表明,增强型的深度分布式循环Q网络相比于DDRQN网络,具有良好的学习性能,稳定性、收敛速度均具有显著提升。 相似文献
240.
1月2日,习主席签署中央军委2020年1号命令,向全军发布开训动员令,要求做到“五个突岀”,其中在“突出打牢基础”中强调,要抓好群众性练兵比武活动。铿锵动员令,为下一步基层练兵备战指明了方向。军队的使命,就是打仗和准备打仗。 相似文献