全文获取类型
收费全文 | 766篇 |
免费 | 337篇 |
国内免费 | 91篇 |
出版年
2024年 | 1篇 |
2023年 | 18篇 |
2022年 | 10篇 |
2021年 | 22篇 |
2020年 | 37篇 |
2019年 | 19篇 |
2018年 | 13篇 |
2017年 | 62篇 |
2016年 | 68篇 |
2015年 | 49篇 |
2014年 | 71篇 |
2013年 | 61篇 |
2012年 | 80篇 |
2011年 | 61篇 |
2010年 | 42篇 |
2009年 | 86篇 |
2008年 | 58篇 |
2007年 | 65篇 |
2006年 | 64篇 |
2005年 | 44篇 |
2004年 | 44篇 |
2003年 | 33篇 |
2002年 | 36篇 |
2001年 | 23篇 |
2000年 | 20篇 |
1999年 | 18篇 |
1998年 | 16篇 |
1997年 | 15篇 |
1996年 | 12篇 |
1995年 | 10篇 |
1994年 | 8篇 |
1993年 | 10篇 |
1992年 | 4篇 |
1991年 | 2篇 |
1990年 | 8篇 |
1989年 | 4篇 |
排序方式: 共有1194条查询结果,搜索用时 15 毫秒
751.
针对吊放声纳搜潜策略问题,在平均分配每点的搜索时间的典型搜潜策略的基础上,采用遗传算法优化搜潜策略中的吊点选择,进而给出合理的吊放声纳搜潜路径。算法中,利用实数编码优化初始种群,采用轮盘赌和期望值相结合的混合选择策略优化种群的进化。仿真运算表明:采用遗传算法优化吊放声纳搜潜路径是一种具有研究价值的方法,但算法复杂,计算量大,工程实现还需要进一步研究简化。 相似文献
752.
753.
754.
为将分岔理论应用于数字液压缸稳定性分析与设计,对系统非线性模型进行了等价变换和光滑处理,同时为克服刚性问题影响,基于量纲分析理论通过选择合适的基本量将模型无因次化,并采用预测-校正延拓法确保分岔求解的精度和效率。在各自可行区间内,对重要参数和不确定参数进行了单参数分岔分析,结果表明:数字液压缸的初始设计具有一定的稳定裕度和鲁棒性,系统受不确定参数的影响较小;运用分岔理论,能够有效揭示各参数对系统动态稳定性的影响,为系统参数设计提供指导。 相似文献
755.
756.
针对当前舰船水消防系统监控点信息孤立、智能化决策程度不高的问题,构建了基于节点的水消防系统功能逻辑模型,提出了基于战斗损伤的水消防系统破损隔离重构使用智能决策算法,并据此开发了水消防智能监控系统。案例对比计算和系统测试检验的结果表明,该智能决策算法以及智能监控系统可以有效提升分析决策的速度和精度,显著提高指挥控制的效率,为水消防系统的战斗破损使用提供有效的支撑。 相似文献
757.
对电力系统中重要节点进行有效区分,有助于在资源有限的条件下对重要节点施加额外保护或改变拓扑结构,从而提高系统鲁棒性、降低事故发生的概率。受网页排序算法启发,提出电气链接结构分析的随机方法(electrical stochastic approach for link structure analysis, E-SALSA)用于电力系统重要节点评估。该算法综合考虑了电力系统拓扑结构、潮流等因素对节点的影响,能够有效反映电力系统的真实情况,并且其特点更符合电力系统背景。在IEEE300节点电力系统中,使用失负荷规模和最大子群规模两个指标对E-SALSA算法与电气介数算法、基于共同引用的超链接引导的主题搜索(model based on co-citation hypertext induced topic search, MBCC-HITS)算法进行了对比分析。结果证明E-SALSA算法相比电气介数算法在两个指标上都具有优势,相比MBCC-HITS算法能够更综合考虑各方面因素对节点的影响,进而证明了E-SALSA算法的合理性、有效性。 相似文献
758.
滤波器阶数是影响卫星导航接收机时域自适应抗干扰性能和计算复杂度的核心参数。为了解决当前阶数选取严重依赖工程经验而影响分析不足的问题,分析了滤波器阶数对导航接收机时域自适应抗干扰性能的影响,可为导航接收机低复杂度时域抗干扰的研究提供理论支撑。该分析面向不同干扰环境,分别以滤波器幅频响应和信号载噪比为评估指标,并通过仿真实验和实测对传统最小均方算法和改进型最小均方算法进行验证,提出了一种基于数字滤波器设计的自适应最优滤波器阶数的设计方法。实验数据分析表明,通过适当提升滤波器长度,可以有效提升时域自适应滤波器的抗干扰性能;在实际应用中,可根据实际抗干扰需求,对滤波器阶数进行优化设计。 相似文献
759.
Testing provides essential information for managing infectious disease outbreaks, such as the COVID-19 pandemic. When testing resources are scarce, an important managerial decision is who to test. This decision is compounded by the fact that potential testing subjects are heterogeneous in multiple dimensions that are important to consider, including their likelihood of being disease-positive, and how much potential harm would be averted through testing and the subsequent interventions. To increase testing coverage, pooled testing can be utilized, but this comes at a cost of increased false-negatives when the test is imperfect. Then, the decision problem is to partition the heterogeneous testing population into three mutually exclusive sets: those to be individually tested, those to be pool tested, and those not to be tested. Additionally, the subjects to be pool tested must be further partitioned into testing pools, potentially containing different numbers of subjects. The objectives include the minimization of harm (through detection and mitigation) or maximization of testing coverage. We develop data-driven optimization models and algorithms to design pooled testing strategies, and show, via a COVID-19 contact tracing case study, that the proposed testing strategies can substantially outperform the current practice used for COVID-19 contact tracing (individually testing those contacts with symptoms). Our results demonstrate the substantial benefits of optimizing the testing design, while considering the multiple dimensions of population heterogeneity and the limited testing capacity. 相似文献
760.
Wieslaw
Kubiak Yanling Feng Guo Li Suresh P. Sethi Chelliah Sriskandarajah 《海军后勤学研究》2020,67(4):272-288
Job shop scheduling with a bank of machines in parallel is important from both theoretical and practical points of view. Herein we focus on the scheduling problem of minimizing the makespan in a flexible two-center job shop. The first center consists of one machine and the second has k parallel machines. An easy-to-perform approximate algorithm for minimizing the makespan with one-unit-time operations in the first center and k-unit-time operations in the second center is proposed. The algorithm has the absolute worst-case error bound of k − 1 , and thus for k = 1 it is optimal. Importantly, it runs in linear time and its error bound is independent of the number of jobs to be processed. Moreover, the algorithm can be modified to give an optimal schedule for k = 2 . 相似文献