全文获取类型
收费全文 | 922篇 |
免费 | 99篇 |
国内免费 | 47篇 |
出版年
2024年 | 3篇 |
2023年 | 19篇 |
2022年 | 21篇 |
2021年 | 12篇 |
2020年 | 34篇 |
2019年 | 16篇 |
2018年 | 6篇 |
2017年 | 18篇 |
2016年 | 24篇 |
2015年 | 37篇 |
2014年 | 82篇 |
2013年 | 65篇 |
2012年 | 105篇 |
2011年 | 76篇 |
2010年 | 75篇 |
2009年 | 60篇 |
2008年 | 69篇 |
2007年 | 49篇 |
2006年 | 31篇 |
2005年 | 59篇 |
2004年 | 32篇 |
2003年 | 21篇 |
2002年 | 37篇 |
2001年 | 28篇 |
2000年 | 16篇 |
1999年 | 11篇 |
1998年 | 16篇 |
1997年 | 13篇 |
1996年 | 7篇 |
1995年 | 3篇 |
1994年 | 3篇 |
1993年 | 2篇 |
1992年 | 6篇 |
1991年 | 3篇 |
1990年 | 5篇 |
1989年 | 1篇 |
1988年 | 2篇 |
1973年 | 1篇 |
排序方式: 共有1068条查询结果,搜索用时 31 毫秒
221.
分析了防空反导系统的射击误差源并根据各类误差的特性区分哪些是可校正误差,哪些是不可校正误差,根据卡尔曼滤波理论,分析影响闭环火控系统精度的多种因素,据此对弹丸脱靶量测量装置的性能指标提出要求。 相似文献
222.
董晓光 《国防科技大学学报》1991,13(3):97-99
本文先证明如下定理:“对于每一个非负整数p,亏格为p 的图的色数可以是任意整数m, 2≤m≤[7+(1+48p/2)].”然后,据此定理得结论:当m≥3,要找到m—色图的充分必要条件基本上是不可能的,即使不说根本不可能。 相似文献
223.
为了描述维修活动对相控阵雷达天线阵面系统的影响,构建了以可靠度为基础的“修旧不如新”定期维修优化模型。对相控阵雷达T/R单元失效下的天线性能参数进行分析,根据指标确定系统不能正常工作的失效T/R单元阈值; 针对大部分维修活动都难以使T/R单元修复如新的事实,引入失效率递增因子,在系统一定的可靠度水平上,以相控阵雷达系统的使用可用度和维修费用率为优化决策参数,建立了系统的维修优化模型,并运用边际效能算法对系统的最佳预防换件维修周期和换件维修组数量进行求解。实例运算结果表明,该模型突破了已有模型“修旧如新”的限制条件,更符合实际,能为维修策略的制定提供理论依据。 相似文献
224.
225.
时钟同步协议是时间触发网络的一个重要组成部分,是时间触发网络实时性和确定性的关键。本文基于扩展标记变迁模型对时钟同步协议进行建模,基于模型检测方法对协议是否满足正确性属性进行验证。验证结果证明了在不同启动场景下时钟同步网络协议的正确性,也表明了扩展标记变迁模型对于协议验证的有效性。 相似文献
226.
提出了一种基于动态数据复制策略和放置算法的3阶段云存储计算。在第1阶段,计算出一个文件的PD,然后根据得到的PD,从中找到最需要访问的文件和需要复制的文件;在第2阶段,计算出需要复制文件的RF,以确定文件是否应当复制或创建副本;在第3阶段,计算出这些节点的AF,以找到创建副本的数量并把副本放置在适当位置的特定节点,从而向用户提供相同服务的不同副本来增加数据可用性;实验结果表明,提出的云存储计算策略不仅能够有效找到需要复制的文件及创建和放置副本,而且在SBER和执行时间性能方面都优于目前比较先进的技术。 相似文献
227.
随着Internet规模的扩展和连接密度的增加,作为域间路由标准的BGP协议面临严峻挑战。集群路由器的出现,其分布式的计算资源、存储资源以及体系结构上的高度可扩展,有利于解决BGP协议面临的这些问题。在分析BGP协议体系结构无法适应集群路由器分布式特点的基础上,通过对BGP协议功能的解耦合,提出一种新的、分布式的BGP协议体系结构。与传统方式相比,分布式BGP体系结构能够充分利用集群路由器的分布式的计算资源和存储资源,在协议可靠性、管理维护成本、协议多维可扩展性和简化BGP网络设计等方面具有极大优势。 相似文献
228.
229.
提出只更新飞行剖面参数的航程更新方法及相应的RLV再入标准轨道制导规律;结合轨道在线生成与跟踪技术,采用Runge-Kutta-Fehlberg自适应变步长轨道快速预报方法,研究了RLV再入轨道预测制导。进一步对两种制导方法进行了比较分析研究,研究认为标准轨道制导与轨道预测制导都是可行的RLV再入制导方案,其有机结合是未来可重复使用跨大气层飞行器再入制导的发展趋势。 相似文献
230.
针对局部可观测多智能体学习环境下,智能体与环境频繁交互造成环境不稳定,导致智能体无法使用经验回放机制(experience replay)的问题,采用了一种基于异环境重要性采样的回放经验利用机制。并结合该机制再深度强化学习算法,深度分布式循环Q网络(DDRQN)基础上进行了改进,提出一种增强型的深度分布式循环Q网络。通过对Deep Mind的Py SC2平台Defeat Roaches局部可观测多智能体学习环境实验结果对比分析表明,增强型的深度分布式循环Q网络相比于DDRQN网络,具有良好的学习性能,稳定性、收敛速度均具有显著提升。 相似文献