IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> Deep Q-learning (DQN) for Multi-agent Reinforcement Learning -> 正文阅读

[人工智能]Deep Q-learning (DQN) for Multi-agent Reinforcement Learning

多智能体强化学习的深度Q学习(DQN)

背景

我们从回顾单智能体和多智能体强化学习开始。

单智能体强化学习

在单智能体、完全可观察的RL设置中,有一个智能体通过采取行动与环境交互。在每次t时,智能体观察环境的当前状态St ∈ S,根据随机策略π选择一个动作Ut∈ U,并接收奖励信号Rt= r(St,Ut)。然后,环境根据转移概率函数P(St+1 | St,Ut) 转移到新的状态St+1∈ S。

目标是为代理人找到一个最大化折扣回报期望的策略 π \pi π G t = Σ k = t ∞ γ k ? t R t ? G_t= \Sigma^\infty_{k=t}\gamma^{k-t}R_t\, Gt?=Σk=t?γk?tRt?,Rk是在时间k收到的报酬, γ \gamma γ∈[0,1]是一个折扣因子。策略 π \pi π的作用值函数Q是Q(s,u) = E π ^\pi π[Gt | St = s,Ut = u]。

最优作用值函数 Q ? ∑ ( s , u ) = m a x π Q π ( s , u ) Q^*∑(s,u) = max_πQ^π(s,u) Q?(s,u)=maxπ?Qπ(s,u)服从贝尔曼最优性方程 Q ? ∑ ( s , u ) = r ( s , u ) + γ Σ s P ( s ∣ s , u ) m a x u Q ∑ ( s , u ) Q^*∑(s,u) = r(s,u) + γ\Sigma _sP(s|s,u)max_u Q∑(s,u) Q?(s,u)=r(s,u)+γΣs?P(ss,u)maxu?Q(su)。给定Q^*,通过选择Q函数最高的动作: π ? ∑ ( S ) = a r g m a x u Q ∑ ( S , u ) π^*∑(S)= argmax_uQ∑(S,u) π?(S)=argmaxu?Q(Su),可以恢复每个状态s ∈ S的最优策略 π ? π^* π?。这一性质导致了许多直接估计Q函数的学习算法,如Q学习沃特金斯(1989)。

Q_Learning

在Q-Learning中,代理从Q*的任意估计(Q0)开始,迭代地改进它的估计如下:在每个时间t,然后代理根据一个策略对状态栈采取一个动作ut,接收一个奖励 r t = r ( s t , u t ) r_t= r(s_t,u_t) rt?=r(st?ut?),并观察一个新的状态st+1。基于经验< st,ut,rt,st+1 >,代理根据以下内容更新Q函数
更新Q值
其中αt∈(0,1)是学习速率或步长,它决定新获取的信息在多大程度上覆盖旧信息。在上述公式(1)中,术语 r t + γ m a x t + 1 Q ( s t + 1 , u t + 1 ) rt+ γ max_{t+1}Q(s_{t+1},u_{t+1}) rt+γmaxt+1?Q(st+1?ut+1?)被称为目标,术语 Q ( s t , u t ) Q(s_t,u_t) Q(st?ut?)被称为估计。在迭代过程中导出新策略的一种常见方式是遵循 ? ? ? -greedy 贪婪的策略。基于这个策略,在每个状态St,用概率 ? ? ?选择随机动作,概率为1- ? ? ?,选择动作最大化Qt。这种策略被用来引入一种探索形式,这是RL中的一个重要概念:通过根据其当前估计随机选择次优的动作,代理可以在适当的时候发现并纠正其估计。

DQN

Mnih等人(2015年)对最初的DQN提出了若干扩展。在这里,我们选择了一组扩展来解决与原始DQN相关的独特问题。

双DQN (DDQN):在上述DQN,目标网络Q(.,.;θt)既用于选择下一状态的最佳动作,也用于计算评估所选动作的目标(见2)。这使得它更有可能选择高估的值,导致过度乐观的价值估计。为了防止这个问题,双DQN的作者在V an Hasselt等人(2016)中提出了一个简单的技巧,将动作选择从动作评估中分解出来。更具体地,在双DQN中,在线网络用于选择动作,目标网络用于生成该动作的目标值。因此,对于双DQN,式(2)中的损失可以改写如下:
DDQN
事实证明,这一变化可以大大降低DQN出现的高估,从而提高业绩。

优先体验重放:在DQN,样本是从体验重放存储器中统一随机抽取的。然而,通过同等对待所有样本,我们忽略了来自现实世界的一个简单直觉,也就是说,我们可以从结果与我们的期望相差更大的经历中潜在地学到更多。为了利用这一事实,优先经验重放(PER) Schaul等人(2015)以概率pt正比于该经验的目标值和估计值之间的绝对差异(称为TD误差)对经验进行采样。也就是说,
优先经验重放
哪里 ? ? ?是一个小的正常数,确保没有经验被采样的概率为零。此外,指数ω决定使用多少优先级,ω = 0对应统一情况。对于雅达利基准套件Bellemare等人(2013年),与统一体验重放相比,优先体验重放的使用导致了大多数游戏的更快学习和更好的最终策略质量。

决斗网络:在DQN网络体系结构中,虽然存在两个网络,即在线网络和目标网络,但是对于这些网络中的每一个,使用单个神经网络来估计动作值函数,该函数测量在特定状态下选择特定动作的值。决斗网络架构背后的关键见解王等人(2015)是,对于许多国家,没有必要估计每个行动选择的价值。为此,在这个网络体系结构中,估计了两个独立的函数,一个值函数V测量在特定状态下有多好,一个优势函数A测量在特定状态下选择特定动作的相对重要性。然后,聚合这两个函数来估计动作值函数q。例如,王等人(2015)中提出的在线网络(类似于目标网络)的聚合模块如下:
决斗网络
其中θt表示价值函数V和优势函数A的估计器之间的共享层(例如,卷积层,如果存在的话)的参数,而αt和βtt分别表示价值函数V和优势函数A的分离层的参数。

多智能体强化学习

在一个完全可观测的合作多智能体问题中,存在n个智能体,其中智能体的集合用A = {1,2,…,n}。在这个问题中,在每个时间点,每个代理a∈A观测环境的当前状态 S t ∈ S S_t∈ S St?S,并根据随机策略 π a π_a πa?选择一个动作 U t a ∈ U a U^a_t∈U^a Uta?Ua,代理的动作形成一个联合动作Ut。作为这种联合行动的结果,所有代理都收到一个奖励信号 R t = r ( S t , U t ) R_t= r(S_t,U_t) Rt?=r(St?Ut?),并且环境根据转移概率函数 P ( S t + 1 ∣ S t , U t ) P(S_{t+1}|S_t,U_t) P(St+1?St?Ut?)转移到一个新的状态 S t + 1 ∈ S S_{t+1}∈ S St+1?S。目标是为所有最大化贴现收益期望的代理人找到一组策略 π a π_a πa? G t = Σ k = t ∞ γ k ? t R t ? G_t= \Sigma^\infty_{k=t}\gamma^{k-t}R_t\, Gt?=Σk=t?γk?tRt?,Rk是在时间k收到的报酬,γ∈(0,1)是折扣因子。

对于这样一个完全可观察的、合作的多智能体RL问题,一个自然的方法是考虑一个“元智能体”,它根据π选择联合行动Ut,π是一个包含策略 π a , a ∈ A π_a,a ∈ A πa?aA的向量,即 π = ( π 1 , . . . , π n ) π = (π_1,...,π_n) π=(π1?...πn?)。这个元代理学习Q函数 Q ( s , u ) = E π [ G t ∣ S t = s , U t = u ] Q(s,u) = E^π[G_t|S_t= s,U_t= u] Q(su)=Eπ[Gt?St?=sUt?=u],它以所有代理的状态和联合动作为条件。然后,上述针对单代理RL问题的所有算法都可以应用于该问题。然而,元代理需要选择联合动作 U t U_t Ut? ∏ a ∈ A U a \prod_{a∈A}U^a aA?Ua这个空间在代理数量上呈指数增长。因此,这个问题使得这种方法不可扩展,因此对于具有大量代理的问题是不切实际的。

另一种可以应用于多智能体RL问题(不一定是完全可观察的合作问题)的方法是独立Q学习(IQL)Tan (1993)。这种方法是解决多智能体RL问题最简单也是最流行的方法,在这种方法中,每个智能体a ∈ A忽略环境中其他智能体的存在,并学习自己的Q函数 Q a ( s , u a ) = E π a [ G t ∣ S t = s , U t a = u a ] Q^a(s,u^a) = E^{π^a}[G_t|S_t= s,U^a_t= u^a] Qa(sua)=Eπa[Gt?St?=sUta?=ua],该函数以状态和自身的动作为条件。与第一种方法相比,IQL很有吸引力,因为它避免了上面讨论的可伸缩性问题。由于Q学习可以扩展到DQN的深层RL问题,IQL可以扩展到独立的DQN,通过让每个代理执行DQN来训练自己的神经网络来逼近自己的Q函数。

尽管IQL很简单,但它有一个关键问题:从任何代理的角度来看,环境似乎都不是固定的,因为它包含其他代理,这些代理会随着学习的进行独立更新其策略。从每个代理的角度来看,环境的非平稳性排除了Q学习存在的任何收敛保证。尽管有这个问题,IQL有强有力的实证结果马蒂尼翁等人(2012年),然而,这样的结果不涉及深度学习。

将IQL应用于深度强化学习问题有一个关键挑战:虽然经验重放记忆的存在有助于稳定深层神经网络的训练,并且还提高了样本效率,因为它可以反复从过去的经验中重新学习,但它与IQL的结合似乎有问题。由于从IQL引入的每个代理的角度来看,环境是不稳定的,所以经验重放记忆可能不再反映代理应该学习的环境的当前动态。因此,重复使用过时的经验会不断混淆神经网络,使训练不稳定。

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-08-15 15:32:20  更:2021-08-15 15:36:48 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/16 11:47:32-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码