| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 人工智能 -> 基于Pytorch的强化学习(DQN)之 A2C with baseline -> 正文阅读 |
|
[人工智能]基于Pytorch的强化学习(DQN)之 A2C with baseline |
目录 1. 引言我们上次介绍了利用到了baseline的一种算法:REINFORCE。现在我们来学习一下另一种利用到baseline的算法:Advantage Actor-Critic(A2C) 2. 数学推导我们在Sarsa算法中推导出了这个公式?,我们分部期望? 两边对??求期望? 我们便得到了关于状态价值函数的递推关系式?? 使用蒙特卡罗算法近似右侧期望?,我们得到 ?又由?,也是使用蒙特卡罗算法,我们得到?,总结一下,现在我们得到两个近似公式,分别记为公式1和公式2。 它们在后面各有用处。 在REINRORCE中我们推导出了随机梯度的表达式?我们用它来更新策略函数,这里的 ?就是我们之前在Dueling Network讲过的优势函数,这便是Advantage的来源。现在需要解决??和??两个未知量的近似,由公式1,我们解决了??的近似问题,对于??我们使用神经网络?来近似它,于是我们得到 ,由于?含有更多的真实信息,我们将其作为TD target 使??来优化价值函数的参数。 3. 算法A2C算法本质上还是一种Actor-Critic方法,所以还是分为两个神经网络进行训练,一个是策略网络(Actor),另一个是价值网络(Critic)
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/26 10:30:02- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |