全文获取类型
收费全文 | 1146篇 |
免费 | 194篇 |
国内免费 | 74篇 |
出版年
2024年 | 8篇 |
2023年 | 35篇 |
2022年 | 26篇 |
2021年 | 32篇 |
2020年 | 53篇 |
2019年 | 25篇 |
2018年 | 10篇 |
2017年 | 39篇 |
2016年 | 43篇 |
2015年 | 46篇 |
2014年 | 107篇 |
2013年 | 56篇 |
2012年 | 78篇 |
2011年 | 83篇 |
2010年 | 91篇 |
2009年 | 72篇 |
2008年 | 82篇 |
2007年 | 62篇 |
2006年 | 51篇 |
2005年 | 60篇 |
2004年 | 44篇 |
2003年 | 39篇 |
2002年 | 56篇 |
2001年 | 46篇 |
2000年 | 25篇 |
1999年 | 24篇 |
1998年 | 22篇 |
1997年 | 17篇 |
1996年 | 13篇 |
1995年 | 13篇 |
1994年 | 16篇 |
1993年 | 9篇 |
1992年 | 12篇 |
1991年 | 6篇 |
1990年 | 9篇 |
1989年 | 3篇 |
1988年 | 1篇 |
排序方式: 共有1414条查询结果,搜索用时 15 毫秒
351.
针对部队管理绩效影响因素复杂,难以客观定量评价的问题,从权重确定和评价方法选择两个方面进行改进和完善研究。为避免信息的丢失和扭曲,提出了一种组合赋权法来确定指标权重,并将云模型引入到部队管理绩效评价,从而建立了基于组合赋权-云模型的评价方法,通过与模糊综合评价的结果对比,验证了该算法的可行性和有效性。 相似文献
352.
针对商用车同步器在换挡过程中存在噪声和齿间冲击大等问题,以某商用车变速器为研究对象,对1、2挡双锥面及三锥面同步器进行研究.根据同步器换挡工作原理,提出三锥面同步器的参数优化方案.分析了锥面参数对齿间冲击、噪声和使用寿命的影响,提出了锥面参数的优化方法,最终通过台架试验证明了该方法的可行性.结论表明,采用优化后的三锥面... 相似文献
353.
为了分析空投气垫艇在不同重心位置和漂角下的纵摇运动响应,利用STAR-CCM+平台的重叠网格技术对气垫艇在规则波中的水动力性能进行数值模拟。研究表明,重心和漂角的变化对空投气垫艇阻力性能和航行稳定性的影响十分敏感,试验中通过改变压块来调整气垫艇重心位置,在低速段即0.4r<0.8时,重心纵向位置前移与垂向位置上移将会导致阻力增加,而当其在高速段即Fr>0.8时,重心纵向位置前移和垂向位置下移将导致阻力减少,为了满足高速船舶性能,因此重心位置布置时宜适当前移。在0°<β<30°范围内,漂角越小,气垫艇受到波浪的激励作用愈加明显,纵摇运动响应幅值越大。优化重心布置方案、漂角等组合形式能够有效提升气垫艇的航行稳定性,综合分析可知该型气垫艇在重心位置靠近艏部且以一定小角度漂角高速航行时,纵向稳定性越高且兴波阻力性能最佳。 相似文献
354.
355.
为提升部队装备保障训练效果评估的准确性与可信性,将由主客观赋权法得出的一级指标权向量抽象为多维空间的多个质点,通过质点与重心的距离确定各权向量在指标聚合中的相对权重,将迭代所求多质点重心作为一级指标最理想权向量。该方法综合了主观与客观赋权法各自优点,优化了组合赋权法指标聚合方式,使部队装备保障训练效果评估能兼顾指标的重要性和指标值的差异性。 相似文献
356.
357.
介绍了粘性触燃迟滞剂的主要性能和引火剂的燃烧性能、囊体材料、复合粘性燃料配方中各组分对该剂触燃性、预布性、粘着性、燃烧温度、火焰大小的影响因素。 相似文献
358.
提出只更新飞行剖面参数的航程更新方法及相应的RLV再入标准轨道制导规律;结合轨道在线生成与跟踪技术,采用Runge-Kutta-Fehlberg自适应变步长轨道快速预报方法,研究了RLV再入轨道预测制导。进一步对两种制导方法进行了比较分析研究,研究认为标准轨道制导与轨道预测制导都是可行的RLV再入制导方案,其有机结合是未来可重复使用跨大气层飞行器再入制导的发展趋势。 相似文献
359.
针对高动态环境下飞行器组合导航系统因不确定故障导致导航精度下降的问题,提出了一种基于矢量信息分配的容错联邦滤波算法。设计矢量形式的故障检测函数,对各观测量进行单独的故障程度划分,克服了将故障子系统所有观测量同时隔离的缺陷;根据观测量是否异常,重构时变量测噪声矩阵和信息分配矢量系数,对子滤波器的状态变量进行信息分配,在隔离故障子系统异常观测量的同时,最大限度地利用正确观测信息。仿真结果表明,采用该算法能够充分发挥各导航子系统的优势,极大提高了导航子系统信息利用率,具有较高的精确性和容错性。 相似文献
360.
针对局部可观测多智能体学习环境下,智能体与环境频繁交互造成环境不稳定,导致智能体无法使用经验回放机制(experience replay)的问题,采用了一种基于异环境重要性采样的回放经验利用机制。并结合该机制再深度强化学习算法,深度分布式循环Q网络(DDRQN)基础上进行了改进,提出一种增强型的深度分布式循环Q网络。通过对Deep Mind的Py SC2平台Defeat Roaches局部可观测多智能体学习环境实验结果对比分析表明,增强型的深度分布式循环Q网络相比于DDRQN网络,具有良好的学习性能,稳定性、收敛速度均具有显著提升。 相似文献