全文获取类型
收费全文 | 2299篇 |
免费 | 105篇 |
国内免费 | 301篇 |
出版年
2024年 | 12篇 |
2023年 | 82篇 |
2022年 | 65篇 |
2021年 | 98篇 |
2020年 | 122篇 |
2019年 | 74篇 |
2018年 | 11篇 |
2017年 | 67篇 |
2016年 | 113篇 |
2015年 | 77篇 |
2014年 | 146篇 |
2013年 | 141篇 |
2012年 | 165篇 |
2011年 | 213篇 |
2010年 | 172篇 |
2009年 | 153篇 |
2008年 | 199篇 |
2007年 | 155篇 |
2006年 | 135篇 |
2005年 | 119篇 |
2004年 | 76篇 |
2003年 | 73篇 |
2002年 | 68篇 |
2001年 | 30篇 |
2000年 | 36篇 |
1999年 | 18篇 |
1998年 | 23篇 |
1997年 | 16篇 |
1996年 | 10篇 |
1995年 | 15篇 |
1994年 | 7篇 |
1993年 | 6篇 |
1992年 | 5篇 |
1990年 | 2篇 |
1989年 | 1篇 |
排序方式: 共有2705条查询结果,搜索用时 15 毫秒
101.
传统基于还原论的效能评估方法无法有效处理网络化体系效能的整体性评价问题.提出了网络化体系效能评估建模的创新理念,建立了网络化体系“两级五层”效能评估建模框架,对各层次效能的建模及指标间的关联关系进行了阐释;在此基础上,以网络化作战体系对抗OODA指挥周期和OODA环鲁棒性评估为例,演示了体系各层次效能指标建模和指标间关联关系研究的具体方法和过程,从而为具体体系的效能评估研究和指标体系构建提供一定的指导. 相似文献
102.
针对助推段弹道导弹目标威胁评估面临信息不确定的情况,提出了一种基于证据理论的威胁评估方法.首先分析了影响威胁评估的主要因素,选取了威胁评估指标;接着分析了威胁评估面临的不确定性问题,给出了基于证据理论的威胁评估思路;然后提出了基于证据理论的助推段弹道导弹目标威胁评估方法;最后对方法的有效性进行了实例验证.本文的研究对反导部队作战准备和反导预警资源优化调度具有重要意义. 相似文献
103.
对于C4 ISR系统的规划与演化,目前的体系建设策略由于缺乏能够对体系演化对体系全局能力的影响进行建模的方法,从而很难实现复杂系统设计的最优化.以Dahmann和Rebovich提出的波模型作为基础,对C4ISR体系演化过程中的涌现行为进行研究,提出C4ISR体系演化过程模型,抽象描述系统与体系能力构建的协商交互过程以及C4ISR体系能力聚合涌现机制.分析系统的行为对C4ISR体系能力和体系结构演化过程的影响,从而捕获体系演化过程中的涌现性能. 相似文献
104.
基于系统动力学的网络空间作战指挥效能评估? 总被引:1,自引:0,他引:1
针对网络空间作战指挥效能评估问题,运用系统动力学方法进行了研究。通过层次熵分法对网络空间作战指挥效能评估指标体系进行了指标权重赋值,依托系统动力学方法建立了指挥效能评估模型并进行了仿真实验,分析了不同条件下指标对指挥效能的影响情况,为研究如何提高网络空间作战指挥效能提供决策依据。 相似文献
105.
106.
基于神经网络的模糊理论在桥梁状态评估中的应用 总被引:1,自引:0,他引:1
探讨了模糊数学中的隶属函数在桥梁技术等级状态评估中的应用.在研究现有桥梁状态评估方法的基础上,把人工神经网络和模糊数学理论结合起来应用于大跨度预应力斜拉桥的等级状态评估,建立了基于三层神经元的模糊神经网络模型,并建立结构损伤度函数及等级隶属度模型,通过样本学习训练,获取评估专家的知识及直觉思维,最终确定桥梁所对应的技术状态等级.以检测的480组索力数据作为学习样本,另外4组作为验证样本进行了索力状态评估预测.计算结果表明,网络预测值与期望值吻合良好. 相似文献
107.
108.
109.
蒋伟翔 《军队政工理论研究》2006,7(5):34-36
在构建社会主义和谐社会进程中,我们要注重调整和理顺社会分配关系,进一步转变政府职能和行为模式,完善社会主义市场经济体制,大力鼓励和支持广大人民群众自主创业、自主发展,充分激发全社会创造活力,从而为构建社会主义和谐社会奠定坚实的社会基础和物质力量。 相似文献
110.
针对空中对抗环境中多对多拦截的武器目标分配问题,提出了一种基于强化学习的多目标智能分配方法。在多对多拦截交战场景下,基于交战态势评估构建了目标分配的数学模型。通过引入目标威胁程度和拦截有效程度的概念,充分反映了各目标的拦截紧迫性和各拦截器的拦截能力表征,从而全面评估了攻防双方的交战态势。在目标分配模型的基础上,将目标分配问题构建为马尔可夫决策过程,并采用基于深度Q网络的强化学习算法训练求解。依靠环境交互下的自学习和奖励机制,有效实现了最优分配方案的动态生成。通过数学仿真构建多对多拦截场景,并验证了该方法的有效性,经训练后的目标分配方法能够满足多对多拦截中连续动态的任务分配要求。 相似文献