全文获取类型
收费全文 | 430篇 |
免费 | 46篇 |
国内免费 | 25篇 |
出版年
2024年 | 13篇 |
2023年 | 27篇 |
2022年 | 18篇 |
2021年 | 21篇 |
2020年 | 27篇 |
2019年 | 9篇 |
2018年 | 5篇 |
2017年 | 15篇 |
2016年 | 23篇 |
2015年 | 19篇 |
2014年 | 21篇 |
2013年 | 18篇 |
2012年 | 27篇 |
2011年 | 28篇 |
2010年 | 14篇 |
2009年 | 16篇 |
2008年 | 19篇 |
2007年 | 26篇 |
2006年 | 19篇 |
2005年 | 23篇 |
2004年 | 34篇 |
2003年 | 15篇 |
2002年 | 18篇 |
2001年 | 6篇 |
2000年 | 5篇 |
1999年 | 6篇 |
1998年 | 5篇 |
1997年 | 1篇 |
1996年 | 4篇 |
1995年 | 10篇 |
1994年 | 2篇 |
1993年 | 2篇 |
1992年 | 1篇 |
1991年 | 2篇 |
1990年 | 1篇 |
1989年 | 1篇 |
排序方式: 共有501条查询结果,搜索用时 15 毫秒
151.
给出了舰船装载方案数学模型,设计并实现了一种基于启发式算法和遗传算法相结合的混合遗传算法.该算法除了选择合理的惩罚函数和利用各种遗传算子进行进化计算之外,在初始化时将一些按启发策略生成的优胜染色体加入初始种群,以求在保证群体多样性的同时加快收敛速度.算法的测试表明,该算法对求解这类问题是有效的. 相似文献
152.
基于策略偏好模糊矩阵对策的协同决策方法 总被引:1,自引:0,他引:1
基于OODA环作战理论,分析了协同作战的主要环节和机制,提出用对策论研究协同决策的思路.然后针对经典矩阵对策和模糊矩阵对策的不足,提出了一种策略偏好模糊矩阵对策模型,给出了基于模糊规划的最优策略求解算法.并以防空导弹混编群对抗反辐射导弹及载机时的纵向协同决策问题为案例,给出了协同决策的方法. 相似文献
153.
陈彬 《中国人民武装警察部队学院学报》2006,22(3):14-16
中国幅员辽阔,边界漫长,边境地区特别是西北边境地区情况复杂,"东突"恐怖组织的暴力恐怖活动日益猖獗,成为影响我国边境地区安全稳定的一个主要因素.公安边防部队在维护国家边境地区秩序方面,拥有许多优势.根据公安边防部队的职责、优势和任务,论述了公安边防部队在边境反分裂斗争中的作用. 相似文献
154.
155.
借鉴外军装备技术服务研究成果,立足我军现有保障体制,梳理了军民融合背景下装备售后技术服务的内涵,分析了装备售后技术服务模式的类型,明确了装备售后技术服务策略构成,提出了系统级和业务级装备售后技术服务逻辑决断流程,为开展军民融合条件下装备售后技术服务提供理论指导和技术支持。 相似文献
156.
矩阵变换器自抗扰控制策略研究 总被引:2,自引:0,他引:2
矩阵变换器的输出电压易受各种因素的影响,为了改善输出性能,将自抗扰控制技术应用于矩阵变换器的闭环控制中。分析了自抗扰控制器的特性,提出了一种双闭环自抗扰控制策略,即电流内环与电压外环均采用一阶简化的自抗扰控制算法。仿真结果表明:该方法不仅可以有效地抑制多种扰动的影响,而且比PI控制具有更优的动静态性能,可满足高性能矩阵变换器系统的控制要求。 相似文献
157.
158.
搜索路径给定时的最优搜索方案问题,也可以理解为是关于搜索者和目标的二人对策问题,主要讨论了当搜索路径给定时的单个搜索者和单个目标的搜索对策问题。首先根据问题的特点,利用动态规划和迭代的方法,确定关于目标逃逸路径混合策略的最优分区,证明该分区是多面体凸集;针对目标不同逃逸路径的分区,求出搜索者的最大期望收益,再将问题转化为二人有限零和对策,计算出搜索者的支付矩阵,确定最优搜索策略。最后结合海军护航行动,对我舰载直升机搜索小型海盗船进行分析和计算,说明搜索路径给定时的最优搜索对策对于双方的资源分配和提高搜索效率具有一定的应用价值。 相似文献
159.
郑开元 《兵团教育学院学报》2017,27(2)
核心素养指学生应具备的适应终身发展和社会发展需要的必备品格和关键能力,地理学科内容与核心素养的要求具有较好的契合性,在核心素养培养方面具有独特的优势和作用.树立教师核心素养教育的理念、基于核心素养整合“三维目标”、深刻挖掘核心素养培养的教学内容、创设“生活化”的地理教学情景是地理教师培养学生核心素养的有效策略. 相似文献
160.
坦克的无人化将成为作战装备的未来研究方向之一,针对坦克无人驾驶如何提高智能体训练速度是当前深度强化学习领域的一大瓶颈,提出一种最近经验回放的探索策略来对传统的软行动者-评论家算法(soft actor-critic,SAC)进行改进,在训练阶段,赋予最近经验更大权重值,增大其采样概率,从而提高了训练的稳定性和收敛速度。在此基础上,基于应用环境以及作战任务设计奖励函数,提高算法的战场适用性。构建具体作战场景,对改进的算法与传统算法进行对比,结果表明,提出的算法在坦克速度控制上表现出更好的性能。 相似文献