全文获取类型
收费全文 | 1385篇 |
免费 | 112篇 |
国内免费 | 85篇 |
专业分类
1582篇 |
出版年
2024年 | 17篇 |
2023年 | 49篇 |
2022年 | 49篇 |
2021年 | 75篇 |
2020年 | 65篇 |
2019年 | 29篇 |
2018年 | 13篇 |
2017年 | 28篇 |
2016年 | 28篇 |
2015年 | 43篇 |
2014年 | 89篇 |
2013年 | 117篇 |
2012年 | 124篇 |
2011年 | 106篇 |
2010年 | 108篇 |
2009年 | 95篇 |
2008年 | 83篇 |
2007年 | 99篇 |
2006年 | 99篇 |
2005年 | 63篇 |
2004年 | 38篇 |
2003年 | 40篇 |
2002年 | 27篇 |
2001年 | 25篇 |
2000年 | 9篇 |
1999年 | 7篇 |
1998年 | 13篇 |
1997年 | 13篇 |
1996年 | 4篇 |
1995年 | 6篇 |
1994年 | 2篇 |
1993年 | 5篇 |
1992年 | 5篇 |
1991年 | 1篇 |
1990年 | 6篇 |
1989年 | 2篇 |
排序方式: 共有1582条查询结果,搜索用时 15 毫秒
801.
城市交通的国防功能建设 总被引:1,自引:0,他引:1
认真分析未来高技术战争对城市交通的要求,研究城市交通建设的特点和规律,按照国防功能建设好城市交通,对于完成战时交通运输任务以及保障和平时期的经济建设具有重要的理论和现实意义。一、国防对城市交通的要求国家防卫和反空袭作战对城市交通的要求,主要反映在以下三个方面:一是增加城市道路通行里程。目前我国300多个城市中,出入口日均交通量大于10000辆的城市有27个,5000~10000辆的城市有36个。近年来,我国许多城市都进行了大量的交通基础设施建设,并取得了一定的成效。但是与交通密度和交通流量的增大相比,道路建设的速度相对缓慢,车… 相似文献
802.
803.
本文整数规划问题给出一种搜索方法,它类似于求解连续变量优化问题的迭代方法,从一个好的初始可行解出发,寻找一个搜索方向,沿着这个方向求出改进的可行解,然后又开始下一次迭代。此方法简单易行,可以求出问题的最优解或近似最优解,对于整数线性规划问题和整数非线性规划问题的求解都适用,并且容易推广到求解大规校整数线性规划问题。文中附有计算例子,说明方法是有效的。 相似文献
804.
李库 《外军炮兵防空兵研究》1997,10(1):19-20
本文介绍菲律宾陆军为期15年的现代化建设计划的基本情况,也反映出更新装备是其海、空军建设的重点,调整编制是其陆军强调的方面。 相似文献
805.
黑龙江某预备役炮兵团结合预备役部队支持地方建设五年规划的要求,团党委及时成立了组织,科学统筹,精心制订了各种“双支”工作和社会主义新农村的帮扶计划和方案,通过“双支”工作和建设社会主义新农村活动全面深入开展,使村民阔步走向小康之路。 相似文献
806.
807.
当前,虽然各级十分重视预备役部队的军事训练工作,并取得了良好的成绩,但还程度不同地存在“人员难集中、集中后难管理、训练质量难提高”等问题。要有效地解决上述问题,提高预备役部队的训练质量,必须积极探索预备役部队训练的新路子。一、科学编组,灵活施训预备役人员寓兵于民、高度分散,要有效地把预备役人员的训练落到实处,必须实行科学编组、灵活施训。一是师团联训。预备役师成立集训队,各团按专业分类进行训练编组,依托训练基地进行封闭式训练。采取这种组训方式,农村的预备役人员训练可安排在农闲季节,企事业单位的预备役人员训练可… 相似文献
808.
809.
提出了多功能室外智能移动机器人避障轨迹自动规划方法。利用遗传算法平行求解不同空间搜索特征,使其不趋于局部化,同时对接多个可行解,通过将路径的二维码变成一维码的简化方式,选择合适的路边约束、动态避障、路径最短适应度函数,确保其稳定收敛,并在算法中加入自适应调整方法,优化自适应参数,避免路径规划时搜索范围大、易陷入局部最小、收敛速度慢问题,提升机器人避障轨迹规划效果。实验结果表明:所提方法的种群平均适应值及最优个体进化次数少,在第56代时便可快速且清晰地找到避障规划最优路径。对比传统规划方法,所研究方法规划所耗时间短,可以提高移动机器人的作业效率。良好的避障功能,在实际的应用过程中,具有节省时间,提高工作效率。 相似文献
810.
随着无人机技术的应用和发展,无人机执行任务的飞行环境愈发复杂多变,对无人机机动避障能力和航迹规划的实时性提出了更高的要求。基于泛化性较好、对环境依赖弱的深度强化学习算法,以雷达实时获取的障碍物地图信息为基础进行实时路径规划,针对二维航迹规划问题特点设计了连续奖励函数,解决了强化学习算法在二维平面航迹规划中奖励稀疏的问题;基于迁移学习的思想设计多个训练环境,并按任务的难易程度进行分步训练,降低了算法的训练难度,提高了训练效果,并使算法的收敛效果更加稳定。在实验中将SAC算法与目前主流的PPO和TD3算法进行对比,实验结果表明:SAC算法收敛速度快,实时性好,航迹平滑度更好。 相似文献