全文获取类型
收费全文 | 453篇 |
免费 | 64篇 |
国内免费 | 26篇 |
专业分类
543篇 |
出版年
2024年 | 6篇 |
2023年 | 10篇 |
2022年 | 17篇 |
2021年 | 15篇 |
2020年 | 16篇 |
2019年 | 4篇 |
2017年 | 5篇 |
2016年 | 16篇 |
2015年 | 7篇 |
2014年 | 32篇 |
2013年 | 25篇 |
2012年 | 29篇 |
2011年 | 21篇 |
2010年 | 27篇 |
2009年 | 22篇 |
2008年 | 39篇 |
2007年 | 43篇 |
2006年 | 17篇 |
2005年 | 35篇 |
2004年 | 31篇 |
2003年 | 27篇 |
2002年 | 29篇 |
2001年 | 24篇 |
2000年 | 16篇 |
1999年 | 5篇 |
1998年 | 1篇 |
1996年 | 3篇 |
1995年 | 1篇 |
1994年 | 4篇 |
1993年 | 3篇 |
1992年 | 3篇 |
1991年 | 4篇 |
1990年 | 4篇 |
1989年 | 2篇 |
排序方式: 共有543条查询结果,搜索用时 0 毫秒
131.
132.
133.
针对局部可观测多智能体学习环境下,智能体与环境频繁交互造成环境不稳定,导致智能体无法使用经验回放机制(experience replay)的问题,采用了一种基于异环境重要性采样的回放经验利用机制。并结合该机制再深度强化学习算法,深度分布式循环Q网络(DDRQN)基础上进行了改进,提出一种增强型的深度分布式循环Q网络。通过对Deep Mind的Py SC2平台Defeat Roaches局部可观测多智能体学习环境实验结果对比分析表明,增强型的深度分布式循环Q网络相比于DDRQN网络,具有良好的学习性能,稳定性、收敛速度均具有显著提升。 相似文献
134.
多智能体协同博弈具有实时及动作连续性、非完全信息博弈、庞大的搜索空间、多复杂任务和时间空间推理等特点,是当前人工智能领域极具挑战的难题之一。针对大规模多智能体强化学习训练时间长、难以收敛等问题,提出了一种基于Actor-Critic的多智能体强化学习协同博弈框架,利用元课程强化学习方法对小规模场景进行基础课程元模型提取,并且基于课程学习向大规模场景进行模型迁移,在元模型基础上继续进行训练,扩展元模型策略网络,最终得到较优协同博弈策略。在《星际争霸Ⅱ》平台上进行仿真实验,结果表明:基于元课程强化学习的多智能体协同博弈技术可有效地加速其训练过程,相较于传统训练方法可以在较短时间内达到较高的胜率,训练速度提升约40%,该方法可有效支撑多智能体协同博弈策略的高效生成,为低资源下的强化学习高效训练奠定理论基础。 相似文献
135.
针对飞行器俯仰运动时流场结构会跨越显著差异的流态,且其气动力和力矩会呈现强烈的非定常、非线性的动态流场特性,采用IDDES混合湍流模型,研究了脊形角90°的前体俯仰运动时的动态流场特性以及来流马赫数对俯仰振荡动态涡流场结构和非定常气动力的影响。研究结果表明:对于脊形前体大振幅俯仰振荡运动,上仰时前体涡破裂延迟,导致大攻角时升力、阻力和俯仰力矩明显大于相应攻角的静态值;下俯时前体涡再附延迟,且远离机身壁面,导致升力、阻力和俯仰力矩比上仰时小,非定常气动力迟滞效应显著;同时,马赫数越小,俯仰振荡的迟滞效应越显著。 相似文献
136.
138.
139.
140.