全文获取类型
收费全文 | 101篇 |
免费 | 12篇 |
国内免费 | 10篇 |
出版年
2024年 | 2篇 |
2023年 | 3篇 |
2022年 | 2篇 |
2021年 | 2篇 |
2020年 | 2篇 |
2019年 | 1篇 |
2017年 | 2篇 |
2016年 | 1篇 |
2014年 | 6篇 |
2013年 | 7篇 |
2012年 | 9篇 |
2011年 | 4篇 |
2010年 | 6篇 |
2009年 | 3篇 |
2008年 | 10篇 |
2007年 | 5篇 |
2006年 | 2篇 |
2005年 | 2篇 |
2004年 | 7篇 |
2001年 | 3篇 |
2000年 | 6篇 |
1999年 | 5篇 |
1998年 | 9篇 |
1997年 | 3篇 |
1996年 | 7篇 |
1995年 | 1篇 |
1994年 | 2篇 |
1993年 | 1篇 |
1992年 | 1篇 |
1991年 | 4篇 |
1990年 | 3篇 |
1989年 | 1篇 |
1987年 | 1篇 |
排序方式: 共有123条查询结果,搜索用时 15 毫秒
31.
针对策略未知逃逸无人机环境中多无人机协同追捕对抗任务,提出P3C-MADDPG算法的多无人机协同追捕对抗策略。首先,为解决多智能体深度确定性策略梯度(Multi-Agent Deep Deterministic Policy Gradient, MADDPG)算法训练速度慢和Q值高估问题,在MADDPG算法中分别采用基于树形结构储存的优先经验回放机制(Prioritized Experience Replay, PER)和设计的3线程并行Critic网络模型,提出P3C-MADDPG算法。然后基于构建的无人机运动学模型,设计追逃无人机的状态空间、稀疏奖励与引导式奖励相结合的奖励函数、加速度不同的追逃动作空间等训练要素。最后基于上述训练要素,通过P3C-MADDPG算法生成策略未知逃逸无人机环境中多无人机协同追捕对抗策略。仿真实验表明,P3C-MADDPG算法在训练速度上平均提升了11.7%,Q值平均降低6.06%,生成的多无人机协同追捕对抗策略能有效避开障碍物,能实现对策略未知逃逸无人机的智能追捕。 相似文献
32.
33.
针对局部可观测多智能体学习环境下,智能体与环境频繁交互造成环境不稳定,导致智能体无法使用经验回放机制(experience replay)的问题,采用了一种基于异环境重要性采样的回放经验利用机制。并结合该机制再深度强化学习算法,深度分布式循环Q网络(DDRQN)基础上进行了改进,提出一种增强型的深度分布式循环Q网络。通过对Deep Mind的Py SC2平台Defeat Roaches局部可观测多智能体学习环境实验结果对比分析表明,增强型的深度分布式循环Q网络相比于DDRQN网络,具有良好的学习性能,稳定性、收敛速度均具有显著提升。 相似文献
34.
35.
为了给HLA分布仿真系统提供运行数据的回放能力并解决各种回放策略都必须面对的数据完备、时序准确、运行高效及回放方法的可通用性等问题,对HLA联邦中的数据回放问题进行了研究,分析了HLA仿真中的回放需求以及HLA对回放实现技术的影响,指出回放方法的可通用性实质上是联邦独立性的概念,研究了将回放数据对象化处理的方法,针对成员式数据回放策略、基于对象序列化技术和成员自动生成技术提出了一种可通用的HLA数据回放实现方案,最后介绍了通用HLA数据回放工具的应用情况。 相似文献
36.
37.
38.
39.
为了在语音转换过程中充分提取语音的个人特征信息,同时考虑到语音的稀疏性,文章提出了一种基于稀疏卷积非负矩阵分解的语音转换方法。卷积非负矩阵分解得到的时频基可以承载语音信号中的个人特征信息及语音帧之间的相关性,而稀疏卷积非负矩阵分解得到的过完备时频基更能体现语音的细节,可以较好地保存语音中的个人特征信息。利用这一特点,通过稀疏卷积非负矩阵分解从训练数据中提取源说话人和目标说话人相匹配的过完备时频基,然后通过时频基的替换实现语音转换。相对于传统方法,该方法能够更好地保存语音个人特征信息和语音帧间相关性,从而可以进一步提高转换语音的质量和相似度。实验仿真及主、客观评价结果表明,与基于高斯混合模型、卷积非负矩阵分解的语音转换方法相比,该方法具有更好的转换语音质量和转换相似度。 相似文献
40.