IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Q-learning时序差分强化学习算法 -> 正文阅读

[人工智能]Q-learning时序差分强化学习算法

Q-learning是基于价值迭代的强化学习算法。

在Q-learning中要定义策略的动作价值函数 Q Q Q,以表示不同状态下不同动作的价值。记策略 π \pi π的动作价值函数为 Q π ( s t , a t ) Q^{\pi}(s_t,a_t) Qπ(st?,at?),表示在状态 s t s_t st?下,执行动作 a t a_t at?带来的累积奖励 G t G_t Gt?的期望值。计算流程如下:

Q π ( s t , a t ) Q^{\pi}(s_t,a_t) Qπ(st?,at?) = E [ G T ∣ s t , a t ] E[G_T|s_t,a_t] E[GT?st?,at?] = E [ r t + γ r t + 1 + γ 2 r t + 2 + . . . ∣ s t , a t ] E[r_t+\gamma r_{t+1}+\gamma ^2r_{t+2}+...|s_t,a_t] E[rt?+γrt+1?+γ2rt+2?+...st?,at?] = E [ r t + γ Q π ( s t + 1 , a t + 1 ) ∣ s t , a t ] E[r_t+\gamma Q^{\pi}(s_{t+1},a_{t+1})|s_t,a_t] E[rt?+γQπ(st+1?,at+1?)st?,at?](公式1)

公式1是马尔科夫决策过程中Bellman方程的基本形式,累积奖励 G t G_t Gt?的计算,不仅考虑当下时刻 t t t的动作 a t a_t at?的奖励 r t r_t rt?,还会累积计算对之后决策带来的影响,公式1中的 γ \gamma γ是后续奖励的衰减因子。从公式上看,当前状态的动作价值 Q π ( s t , a t ) Q^{\pi}(s_{t},a_{t}) Qπ(st?,at?),与当前时刻的动作的奖励 r t r_t rt?以及下一状态的动作价值 Q π ( s t + 1 , a t + 1 ) Q^{\pi}(s_{t+1},a_{t+1}) Qπ(st+1?,at+1?)有关,因此,动作价值函数的计算通过动态规划算法实现,但在状态转移未知或大规模问题时不能使用。

Q-learning使用浅层的时序分差采样学习在计算累积奖励时,基于当前的策略 π \pi π预测接下来发生的 n n n步操作并计算其奖励值。具体来说,假设在状态 s t s_t st?下选择了动作 a t a_t at?并得到了奖励 r t r_t rt?,此时的状态转移到 s t + 1 s_{t+1} st+1?,如果此时的状态策略选择了动作 a t + 1 a_{t+1} at+1?,则 Q π ( s t , a t ) Q^{\pi}(s_t,a_t) Qπ(st?,at?)可以表示为:

Q π ( s t , a t ) Q^{\pi}(s_t,a_t) Qπ(st?,at?)= E s t + 1 , a t + 1 [ r 1 + γ A π ( s t + 1 , a t + 1 ) ∣ s t , a t ] E_{s_{t+1},a_{t+1}}[r_1+\gamma A^{\pi}(s_{t+1},a_{t+1})|s_t,a_t] Est+1?,at+1??[r1?+γAπ(st+1?,at+1?)st?,at?]

由于强化学习的目标是求最大的奖励值,因此最优策略 π ? \pi^* π?对应的动作价值函数 Q ? ( s t , a t ) Q^{*}(s_t,a_t) Q?(st?,at?)满足:

Q ? ( s t , a t ) Q^{*}(s_t,a_t) Q?(st?,at?)= m a x π Q π ( s t , a t ) max_{\pi}Q^{\pi}(s_t,a_t) maxπ?Qπ(st?,at?)= E s t + 1 [ r 1 + γ m a x a t + 1 Q ( s t + 1 , a t + 1 ) ∣ s t , a t ] E_{s_{t+1}}[r_1+\gamma max_{a_{t+1}}Q(s_{t+1},a_{t+1})|s_t,a_t] Est+1??[r1?+γmaxat+1??Q(st+1?,at+1?)st?,at?]

在更新的时候使用梯度下降方法,并至最终收敛。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2022-04-14 23:56:33  更:2022-04-15 00:02:46 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2025年1日历 -2025/1/8 3:58:44-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码