全文获取类型
收费全文 | 1825篇 |
免费 | 153篇 |
国内免费 | 151篇 |
专业分类
2129篇 |
出版年
2024年 | 17篇 |
2023年 | 60篇 |
2022年 | 68篇 |
2021年 | 78篇 |
2020年 | 86篇 |
2019年 | 53篇 |
2018年 | 14篇 |
2017年 | 43篇 |
2016年 | 79篇 |
2015年 | 59篇 |
2014年 | 167篇 |
2013年 | 149篇 |
2012年 | 171篇 |
2011年 | 120篇 |
2010年 | 119篇 |
2009年 | 113篇 |
2008年 | 109篇 |
2007年 | 98篇 |
2006年 | 76篇 |
2005年 | 71篇 |
2004年 | 62篇 |
2003年 | 58篇 |
2002年 | 66篇 |
2001年 | 57篇 |
2000年 | 29篇 |
1999年 | 19篇 |
1998年 | 20篇 |
1997年 | 18篇 |
1996年 | 11篇 |
1995年 | 13篇 |
1994年 | 6篇 |
1993年 | 4篇 |
1992年 | 3篇 |
1991年 | 5篇 |
1990年 | 3篇 |
1989年 | 5篇 |
排序方式: 共有2129条查询结果,搜索用时 0 毫秒
131.
C2关系网络演化生成特性分析* 总被引:1,自引:0,他引:1
在网络中心作战背景下,为了探索"聚力前沿"(Power to the Edge)现实要求下的指挥控制(C2)关系动态演化规律,讨论了两种实元的加入策略模型:"信息最优加入"策略(BIMS)和"随机加入"策略(RMS):提出了信息资源利用率、信息资源命中率、信息传输有效率等三个指挥控制关系网络效能指标和一种加权评价方法.通过对仿真结果的分析,发现了BIMS策略下C2关系网络演化过程中存在的自组织、自适应现象,得出了BIMS策略下C2关系网络将具有无尺度网络特征这一结论.最后,比较了BIMS策略和RMS策略下的C2关系网效能和抗随机干扰能力,发现前者优于后者,而且BIMS策略下C2关系网具有逐渐优化的能力. 相似文献
132.
分析静息状态下人脑中不同区域之间的功能连接模式对研究静息状态下人脑正常功能活动具有重要意义。基于复杂网络理论对脑功能网络进行建模,考察静息状态脑功能网络的结构和拓扑特性。结果显示,网络具有小世界性质和无标度特性。进一步引入一种概率混合模型分析网络社团结构,得到的10个子网络中包含视觉系统、听觉系统、运动系统、默认网络以及与执行和工作记忆相关的脑区。推测出静息状态脑功能网络是由这些相对独立又彼此关联的子网络组成,其中楔前叶和扣带回作为网络的关键节点,在信息调度和传递中占据重要地位。 相似文献
133.
134.
百里预编区一网相连,不仅全部实现网络执勤,还能进行远程教学和网上军事训练,简直是一键定胜负……重庆预师一团短短几年的信息化建设成果令人刮目相看。前不久,重庆警备区专门召开现场会,推广了该团落实科学发展观,依托信息化建设引领部队全面建设的先进经验。走进该团作战值班室,随着值班人员轻敲一下键盘,一幅信息化执勤管控的生动画面跃然眼前: 相似文献
135.
136.
137.
刍议网络化战场建设的新位移 总被引:2,自引:0,他引:2
古人云:“凡事预则立,不预则废”。随着网络时代之潮的滚滚而来,各国军界无不竭力抢占网络化战场建设的制高点。及时瞄准网络化战场建设的新位移,顺利跨入网络高速公路中的快车道,业已成为各国军队竞相选择的目标。 从“渐进式”发展跃升为“跨越式”发展——开启网络建设的跨越之门 相似文献
138.
91602部队党委坚持以“三个代表”为指导,着眼培养未来军事斗争人才的需要和部队建设发展的挑战,作为创建“学习型党委”的先行点,坚持做到因人因地制宜,在经常化、普遍化和制度化上下功夫,积极开展创建活动,并摸索出了一些行之有效的做法。一、党委重视,引导官兵树立新的学习理念。在调查中发现,少数官兵对争创和争做“学习型军营、知识型军人”认识不足,普遍存在着“工作是正业,学习是副业”的模糊认识。为此,部队党委有针对性地进行疏导,使官兵达到了三个明确,树立了三种观念:①通过教育使官兵明确学习知识是讲政治的需要,牢固树立学习就… 相似文献
139.
140.
针对空中对抗环境中多对多拦截的武器目标分配问题,提出了一种基于强化学习的多目标智能分配方法。在多对多拦截交战场景下,基于交战态势评估构建了目标分配的数学模型。通过引入目标威胁程度和拦截有效程度的概念,充分反映了各目标的拦截紧迫性和各拦截器的拦截能力表征,从而全面评估了攻防双方的交战态势。在目标分配模型的基础上,将目标分配问题构建为马尔可夫决策过程,并采用基于深度Q网络的强化学习算法训练求解。依靠环境交互下的自学习和奖励机制,有效实现了最优分配方案的动态生成。通过数学仿真构建多对多拦截场景,并验证了该方法的有效性,经训练后的目标分配方法能够满足多对多拦截中连续动态的任务分配要求。 相似文献