首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1067篇
  免费   28篇
  国内免费   10篇
  1105篇
  2025年   8篇
  2024年   9篇
  2023年   14篇
  2022年   8篇
  2021年   24篇
  2020年   23篇
  2019年   18篇
  2018年   14篇
  2017年   33篇
  2016年   50篇
  2015年   28篇
  2014年   51篇
  2013年   62篇
  2012年   59篇
  2011年   61篇
  2010年   31篇
  2009年   64篇
  2008年   47篇
  2007年   50篇
  2006年   64篇
  2005年   58篇
  2004年   49篇
  2003年   43篇
  2002年   37篇
  2001年   34篇
  2000年   27篇
  1999年   21篇
  1998年   24篇
  1997年   12篇
  1996年   19篇
  1995年   10篇
  1994年   15篇
  1993年   5篇
  1992年   18篇
  1991年   4篇
  1990年   7篇
  1989年   3篇
  1988年   1篇
排序方式: 共有1105条查询结果,搜索用时 15 毫秒
11.
本文利用弹后空间一维均相流假设推导了弹道参数λ_ε,λ,λ_ε的理论表达式。同时对三个参数的相关量进行了研究,得出了与ε相关的关系。利用多通道数据解决了λ-ε的变化规律。文中给出一套完整的膛内火药燃烧规律的处理方法,并对实例进行了计算。  相似文献   
12.
极坐标下雷达多目标跟踪及其实现   总被引:1,自引:0,他引:1  
导出极坐标下雷达多目标跟踪的非线性滤波方程和预测方程 ,获得了稳定和渐近无偏估计 ;采用最优配对法进行点迹与航迹相关 ,避免相关模糊 ;利用记分法进行航迹质量管理 ,并在计算机上实现了多目标跟踪数据处理  相似文献   
13.
以模糊数学和决策理论为基础,通过建立成像数据模糊指数函数及平方误差 模糊指数函数,提出了一种称为模糊多目标优化的新的算法模型,对成像数据的噪声进行抑 制实现数据优化。实验结果表明,所提出的模糊多目标优化算法模型有较强的抑制噪声能 力,理论和实验有较好的一致性。  相似文献   
14.
一个通用数据库管理工具的研究与实现   总被引:1,自引:0,他引:1  
目前我国行业信息化建设已经跨越了初级阶段,但在许多行业的信息化应用中还存在着烟囱效应和信息孤岛效应。为了将行业信息化引向深入,需要对原有系统进行数据集成。文中首先对数据集成的基本概念进行了探讨,并进一步对数据集成的一个重要工具——通用数据库管理工具的功能及实现方法进行了研究。文中所讨论的通用数据库管理工具与其他工具的区别在于:能够对物理上分布的、异构的多个数据库进行管理,还能够在更高的层次上对多个数据库中的数据进行逻辑上的重新组织。文中所讨论的通用数据库管理工具是为最终用户服务的,而不是一个开发工具。  相似文献   
15.
分析了“便携式火药分析试验综合信息平台”的关键组件——SP2100气相色谱仪数据采集卡的工作原理,对采集卡硬件、软件进行了设计。在采集卡软件设计中,重点对固件程序设计及驱动程序设计进行论述。试验证明:SP2100气相色谱仪数据采集卡提高了试验系统自动化程度和试验效率,缩短了试验周期。  相似文献   
16.
介绍了目前红外系统的目标跟踪方法;在目标跟踪时的数据关联阶段,提出了三级门限数据关联算法,根据门限级别所划分的疑似目标点位置,算法采用不同的数据关联策略。该算法能减少轨迹分叉时的计算量,能有效地检测出速度〈1像素/帧的运动点目标。实验结果证明了该算法的有效性。  相似文献   
17.
以伊拉克战争为背景,介绍了美军及北约的战术数据链发展情况、技术概要,重点论述了不同时期的战术数据链在技术体制上的差异,以及由此可能导致互联、互通和互操作的分析.最后,结合我军的一些现状,在汲取外军教训的基础上,提出我军在战术数据链建设方面的一些建议.  相似文献   
18.
Today, many products are designed and manufactured to function for a long period of time before they fail. Determining product reliability is a great challenge to manufacturers of highly reliable products with only a relatively short period of time available for internal life testing. In particular, it may be difficult to determine optimal burn‐in parameters and characterize the residual life distribution. A promising alternative is to use data on a quality characteristic (QC) whose degradation over time can be related to product failure. Typically, product failure corresponds to the first passage time of the degradation path beyond a critical value. If degradation paths can be modeled properly, one can predict failure time and determine the life distribution without actually observing failures. In this paper, we first use a Wiener process to describe the continuous degradation path of the quality characteristic of the product. A Wiener process allows nonconstant variance and nonzero correlation among data collected at different time points. We propose a decision rule for classifying a unit as normal or weak, and give an economic model for determining the optimal termination time and other parameters of a burn‐in test. Next, we propose a method for assessing the product's lifetime distribution of the passed units. The proposed methodologies are all based only on the product's initial observed degradation data. Finally, an example of an electronic product, namely contact image scanner (CIS), is used to illustrate the proposed procedure. © 2002 Wiley Periodicals, Inc. Naval Research Logistics, 2003  相似文献   
19.
In many practical manufacturing environments, jobs to be processed can be divided into different families such that a setup is required whenever there is a switch from processing a job of one family to another job of a different family. The time for setup could be sequence independent or sequence dependent. We consider two particular scheduling problems relevant to such situations. In both problems, we are given a set of jobs to be processed on a set of identical parallel machines. The objective of the first problem is to minimize total weighted completion time of jobs, and that of the second problem is to minimize weighted number of tardy jobs. We propose column generation based branch and bound exact solution algorithms for the problems. Computational experiments show that the algorithms are capable of solving both problems of medium size to optimality within reasonable computational time. © 2003 Wiley Periodicals, Inc. Naval Research Logistics 50: 823–840, 2003.  相似文献   
20.
We consider a single-machine scheduling model in which the job processing times are controllable variables with linear costs. The objective is to minimize the sum of the cost incurred in compressing job processing times and the cost associated with the number of late jobs. The problem is shown to be NP-hard even when the due dates of all jobs are identical. We present a dynamic programming solution algorithm and a fully polynomial approximation scheme for the problem. Several efficient heuristics are proposed for solving the problem. Computational experiments demonstrate that the heuristics are capable of producing near-optimal solutions quickly. © 1998 John Wiley & Sons, Inc. Naval Research Logistics 45: 67–82, 1998  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号