首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   704篇
  免费   107篇
  国内免费   70篇
  2024年   8篇
  2023年   30篇
  2022年   23篇
  2021年   48篇
  2020年   34篇
  2019年   21篇
  2018年   4篇
  2017年   22篇
  2016年   26篇
  2015年   18篇
  2014年   36篇
  2013年   34篇
  2012年   62篇
  2011年   32篇
  2010年   50篇
  2009年   46篇
  2008年   57篇
  2007年   38篇
  2006年   33篇
  2005年   26篇
  2004年   32篇
  2003年   21篇
  2002年   13篇
  2001年   20篇
  2000年   19篇
  1999年   18篇
  1998年   25篇
  1997年   19篇
  1996年   22篇
  1995年   7篇
  1994年   9篇
  1993年   6篇
  1992年   6篇
  1991年   8篇
  1990年   4篇
  1989年   3篇
  1987年   1篇
排序方式: 共有881条查询结果,搜索用时 15 毫秒
351.
利用一维杆件波动理论,同时考虑导致应力波衰减的因素,将应力波衰减系数分为两部分定义:由桩身阻抗变化引起的应力波衰减系数及由桩周土阻尼等因素引起的应力波衰减系数,建立了桩身应力波传播更加合理的数值计算模型。实例分析结果表明,此模型能较好的实现对动测时域曲线的定量分析。  相似文献   
352.
介绍了在识别中子弹爆炸与小型原子弹爆炸的过程中,对弹型识别判据2——“基于探测距离R和早期核辐射中γ辐射周围吸收剂D*(10)的弹型识别方法”的研究.  相似文献   
353.
为提高声纹个体识别率,提出了一种基于卷积神经网络(CNN)和深度循环神经网络(RNN)的声纹个体识别方案CRNN,用于发动机声纹个体识别.该方法通过优化CRNN网络参数,挖掘声谱图"纹路"特征和时序特征,解决现有方法不能充分利用声音信号特征的问题.基于实采汽车发动机声音信号的仿真结果表明,相对于传统方法,改进CRNN能...  相似文献   
354.
本文分析了雷达目标识别的方法和技术,结合水声环境和目标的特点,提出了一种用于水下目标识别的特征抽取算法,并以TMS320C25为核心研制了相应的实验样机,在水池中进行了实验,结果表明该方法和系统是可行的。  相似文献   
355.
混合编码方式吸取了波形编码和参数编码各自的优点,在4.8~16kbps范围内具有良好的语音质量,是语音编码领域内的研究热点。本文还将介绍两种类型的混合编码算法.  相似文献   
356.
本文通过对影响武器系统终端效能各因素的分析,提出了利用弹道信息对引信炸点实施自适应控制与弹道识别的基本原理及弹道特征量的确定准则,并给出了三种不同的弹道特征量。  相似文献   
357.
本文提出一种利用T/R-R型双基地系统识别欺骗式假目标的方法。在给出双基地系统数据相关算法的基础上,提出了真假目标的识别准则,仿真实验表明,该方法在电子战条件下识别欺骗式假目标是行之有效的。  相似文献   
358.
基于多分辨分析的雷达目标识别方法   总被引:4,自引:1,他引:3       下载免费PDF全文
针对宽带高距离分辨率雷达的工作体制,提出了一种基于多分辨分析和信息综合的目标识别算法。目标特征由小波变换在相邻分辨率上的能量之比的对数构成。利用多分辨分析,将目标特征分解为反映目标结构概貌的低通特征和刻画目标结构细节的高通特征。利用辐射基函数神经网络分别对目标的低通特征和高通特征进行识别判决,然后将基于目标的低通特征和高通特征的判决信息进行综合,得到最终的识别结果  相似文献   
359.
本文研究在载荷识别中确定载荷的分析处理频带宽度的方法。提出将载荷95%的能量对应的频率f_0,作为分析处理带宽。该方法具有一般性。  相似文献   
360.
本文研究神经网络的多层感知器模型在语音识别中的应用。为达到实时识别的效果,笔者设计了TMS32010数字信号处理板,它与PC/XT机构成主-从系统,由PC/XT机管理数据,TMS32010进行高速运算,实验中,考察了神经网络对数字语音的识别能力,识别率达到95%以上,结果表明,用神经网络进行语音识别是一种很有前途的方法。  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号