将深度学习和强化学习相结合的深度强化学习DRL.doc

将深度学习和强化学习相结合的深度强化学习DRL.doc

ID:27903328

大小:435.00 KB

页数:13页

时间:2018-12-06

将深度学习和强化学习相结合的深度强化学习DRL.doc_第1页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第2页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第3页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第4页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第5页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第6页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第7页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第8页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第9页
将深度学习和强化学习相结合的深度强化学习DRL.doc_第10页
资源描述:

《将深度学习和强化学习相结合的深度强化学习DRL.doc》由会员上传分享,免费在线阅读,更多相关内容在学术论文-天天文库

1、将深度学习和强化学习相结合的深度强化学习DRL  深度学习DL是机器学习中一种基于对数据进行表征学习的方法。深度学习DL有监督和非监督之分,都已经得到广泛的研究和应用。    强化学习RL是通过对未知环境一边探索一边建立环境模型以及学习得到一个最优策略。强化学习是机器学习中一种快速、高效且不可替代的学习算法。  然后今天我们重点跟跟大家一起探讨一下深度强化学习DRL。    深度强化学习DRL自提出以来,已在理论和应用方面均取得了显著的成果。尤其是谷歌DeepMind团队基于深度强化学习DRL研

2、发的AlphaGo,将深度强化学习DRL成推上新的热点和高度,成为人工智能历史上一个新的里程碑。因此,深度强化学习DRL非常值得研究。深度强化学习概念:  深度强化学习DRL将深度学习DL的感知能力和强化学习RL的决策能力相结合,可以直接根据输入的信息进行控制,是一种更接近人类思维方式的人工智能方法。  在与世界的正常互动过程中,强化学习会通过试错法利用奖励来学习。它跟自然学习过程非常相似,而与深度学习不同。在强化学习中,可以用较少的训练信息,这样做的优势是信息更充足,而且不受监督者技能限制。 

3、 深度强化学习DRL是深度学习和强化学习的结合。这两种学习方式在很大程度上是正交问题,二者结合得很好。强化学习定义了优化的目标,深度学习给出了运行机制——表征问题的方式以及解决问题的方式。将强化学习和深度学习结合在一起,寻求一个能够解决任何人类级别任务的代理,得到了能够解决很多复杂问题的一种能力——通用智能。深度强化学习DRL将有助于革新AI领域,它是朝向构建对视觉世界拥有更高级理解的自主系统迈出的一步。从某种意义上讲,深度强化学习DRL是人工智能的未来。深度强化学习本质:  深度强化学习DRL

4、的AutonomousAgent使用强化学习的试错算法和累计奖励函数来加速神经网络设计。这些设计为很多依靠监督/无监督学习的人工智能应用提供支持。它涉及对强化学习驱动AutonomousAgent的使用,以快速探索与无数体系结构、节点类型、连接、超参数设置相关的性能权衡,以及对深度学习、机器学习和其他人工智能模型设计人员可用的其它选择。  深度强化学习原理:  深度Q网络通过使用深度学习DL和强化学习RL两种技术,来解决在强化学习RL中使用函数逼近的基本不稳定性问题:经验重放和目标网络。经验重放

5、使得强化学习RL智能体能够从先前观察到的数据离线进行抽样和训练。这不仅大大减少了环境所需的交互量,而且可以对一批经验进行抽样,减少学习更新的差异。此外,通过从大存储器均匀采样,可能对强化学习RL算法产生不利影响的时间相关性被打破了。最后,从实际的角度看,可以通过现代硬件并行地高效地处理批量的数据,从而提高吞吐量。  Q学习的核心思想就是通过Bellman方程来迭代求解Q函数。    损失函数:  Q值更新:  1)使用当前的状态s通过神经网络计算出所有动作的Q值  2)使用下一个状态s’通过神经

6、网络计算出Q(s’,a’),并获取最大值maxa’Q(s’,a’)  3)将该动作a的目标Q值设为r+γmaxa’Q(s’,a’),对于其他动作,把目标Q值设为第1步返回的Q值,使误差为0  4)使用反向传播来更新Q网络权重。    带有经验回放的深度Q学习算法如下:    注:  1)经验回放会使训练任务更近似于通常的监督式学习,从而简化了算法的调式和测试。  2)深度Q网络之后,有好多关于DQN的改进。比如双深度Q网络(DoubleDQN),确定优先级的经历回放和决斗网络(DuelingNe

7、twork)等。  策略搜索方法通过无梯度或梯度方法直接查找策略。无梯度的策略搜索算法可以选择遗传算法。遗传方法依赖于评估一组智能体的表现。因此,对于具有许多参数的一大群智能体来说遗传算法的使用成本很高。然而,作为黑盒优化方法,它们可以用于优化任意的不可微分的模型,并且天然能够在参数空间中进行更多的探索。结合神经网络权重的压缩表示,遗传算法甚至可以用于训练大型网络;这种技术也带来了第一个直接从高维视觉输入学习RL任务的深度神经网络。  深度策略网络    策略梯度    Actor-CriTIc

8、算法将策略搜索方法的优点与学习到的价值函数结合起来,从而能够从TD错误中学习,近来很受欢迎。    异步优势ActorCriTIc算法(A3C)结合Policy和ValueFuncTIon的产物。    确定策略梯度(DeterminisTIcPolicyGradient)算法    虚拟自我对抗(FSP)  深度强化学习挑战:  目前深度强化学习研究领域仍然存在着挑战。  1)提高数据有效性方面;  2)算法探索性和开发性平衡方面;  3)处理层次化强化学习方面;  4)利用其它系统控制器的学

当前文档最多预览五页,下载文档查看全文

此文档下载收益归作者所有

当前文档最多预览五页,下载文档查看全文
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,天天文库负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。