IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 人工智能 -> 【Python】逆强化学习-2:最大熵学习(Maximum Entropy Learning) -> 正文阅读

[人工智能]【Python】逆强化学习-2:最大熵学习(Maximum Entropy Learning)

0.引言

\qquad 本文是逆强化学习系列的第2篇,其余博客传送门如下:

逆强化学习0-Introduction
逆强化学习1-学徒学习

\qquad 最大熵学习是2008年出现的方法,原论文(链接见【逆强化学习0】的博客)使用的Reward的函数仍然是线性模型,但是优化的思想和之前谈到的学徒学习有本质差别,由于需要一些概率论和随机过程分析课程的知识,原paper的理论也十分晦涩难懂。本人凭借粗浅的理解给大家一个浅显易懂的解释。

原会议的presentation(PPT)永久免费
原paper见部分0- Introduction部分

\qquad 学徒学习(APP)是最大化间隙策略(MMP)的一种扩展,通过求解满足最大化间隙的Reward来计算Reward,从而使得Lean的行为越来越趋向于Expert(但又不好于Expert),这种方法往往叫做Feature Matching。其缺点在于对于存在多种合理的Reward的函数或者Expert存在多种次优轨迹时,该方法就无能为力了。APP本质是有约束优化问题,而优化变量是feature的discount-expectation基向量的坐标 θ \theta θ。然而对于每一个策略 π \pi π而言,都可能存在多个Reward函数使其最优。当演示了次优行为时,需要多个策略混合来匹配特征计数,这就让Feature Matching这件事在Expert轨迹存在多个Feature期望值时变得非常模糊。在APP中,这是通过求平均的方式解决的,然而这明显不是一个合理的解决方案。
\qquad 最大熵学习同样是Feature Matching的方法,与学徒学习不同的是,其采用了一种有原则的方式消除了这种匹配歧义。而这种原则就是最大熵原则,该原则基于一种假设——即专家系统轨迹生成自己的专家特征期望的策略是最优轨迹(即下文的约束条件1).
\qquad 可以简单的理解为,在学徒学习中作为损失函数的特征匹配,在最大熵学习中被放入了约束条件中,而最大熵学习正是在满足这个约束条件的情况下,要求以 θ \theta θ为Reward函数参数时,轨迹概率分布 P ( ζ ∣ θ ) P(\zeta|\theta) P(ζθ)的信息熵最大
\qquad 至于为什么要求信息熵最大,原paper中并无详细说明,只是指出这已经在reference里面有了相关研究,本人查阅相关资料,给出以下几个理由供大家参考:

  1. 物理系统的稳定状态通常趋向于熵最大
  2. 只有P恒为0的概率分布熵才为0,正态分布是所有概率分布中熵最大的(会议presentation里面说均匀分布的信息熵最大,确认过是个错误结论,试想一下均匀分布的分布区间有限而正态无限)
  3. 熵越大,先验信息越少,最大熵估计也是统计决策理论中常用的一种估计原则

1.算法原理

下面就简单介绍一下这个熵,对于连续变量而言,信息熵通常表示为
E n t = ∫ x ∽ π ? p ( x ) l o g p ( x ) Ent=\int_{x\backsim \pi}-p(x)logp(x) Ent=xπ??p(x)logp(x)
对于强化学习任务而言,最大化信息熵写为:
max ? ∑ ζ ∈ D ? P ( ζ ∣ θ ) l o g P ( ζ ∣ θ ) s . t . { ∑ ζ ∈ D P ( ζ ∣ θ ) f ζ = f ~ ∑ ζ ∈ D P ( ζ ∣ θ ) = 1 \begin{aligned} & \max\sum_{\zeta \in D}-P(\zeta| \theta)logP(\zeta| \theta) \\ s.t. &\begin{cases} \sum_{\zeta\in D}P(\zeta| \theta)f_\zeta = \widetilde{f} \\[2ex] \sum_{\zeta \in D}P(\zeta | \theta)=1 \\ \end{cases} \end{aligned} s.t.?maxζD??P(ζθ)logP(ζθ)????ζD?P(ζθ)fζ?=f ?ζD?P(ζθ)=1??

构造拉格朗日函数
L ( P , λ , μ ) = ∑ ζ ∈ D [ P ( ζ ∣ θ ) l o g P ( ζ ∣ θ ) + λ ( P ( ζ ∣ θ ) f ζ ? f ~ ) + μ ( P ( ζ ∣ θ ) ? 1 ) ] L(P,\lambda,\mu)= \sum_{\zeta \in D}[P(\zeta|\theta)logP(\zeta|\theta)+\lambda (P(\zeta|\theta)f_{\zeta}-\widetilde{f})+\mu(P(\zeta|\theta)-1)] L(P,λ,μ)=ζD?[P(ζθ)logP(ζθ)+λ(P(ζθ)fζ??f ?)+μ(P(ζθ)?1)]

应用拉格朗日函数的KKT条件
? L P = ∑ ζ ∈ D l o g P ( ζ ∣ θ ) + 1 + λ f ζ + μ = 0 ① ? L λ = ∑ ζ ∈ D P ( ζ ∣ θ ) f ζ ? f ~ = 0 ② ? L μ = ∑ ζ ∈ D P ( ζ ∣ θ ) ? 1 = 0 ③ \begin{array} {cl} \nabla L_P =& \sum_{\zeta \in D}logP(\zeta|\theta)+1+\lambda f_{\zeta}+\mu=0 &①\\ \nabla L_{\lambda}=&\sum_{\zeta\in D}P(\zeta| \theta)f_\zeta - \widetilde{f} = 0 &②\\ \nabla L_{\mu} =& \sum_{\zeta \in D}P(\zeta | \theta)-1=0 &③ \end{array} ?LP?=?Lλ?=?Lμ?=?ζD?logP(ζθ)+1+λfζ?+μ=0ζD?P(ζθ)fζ??f ?=0ζD?P(ζθ)?1=0??
由①③式得
P ( ζ ∣ θ ) = e x p ( ? 1 ? μ ? λ f ζ ) ∑ ζ ∈ D e x p ( ? 1 ? μ ? λ f ζ ) P(\zeta|\theta)=\frac{exp(-1-\mu-\lambda f_{\zeta})}{\sum_{\zeta \in D}exp(-1-\mu-\lambda f_{\zeta})} P(ζθ)=ζD?exp(?1?μ?λfζ?)exp(?1?μ?λfζ?)?
\qquad 光靠这个式子肯定是解不出最优的 θ \theta θ的,这就要提到原paper的另一个假设——使用 θ \theta θ参数的Reward函数 R θ ( τ ) R_\theta(\tau) Rθ?(τ)时, ζ \zeta ζ轨迹的概率 P ( ζ ∣ θ ) P(\zeta|\theta) P(ζθ)正比于 R θ ( ζ ) R_{\theta}(\zeta) Rθ?(ζ)的自然指数,再加上概率归一性约束,可得专家系统策略的轨迹概率为:
P ( ζ ∣ θ ) = e x p ( R θ ( ζ ) ) ∫ τ ∈ D [ e x p ( R θ ( τ ) ) d τ ] P(\zeta|\theta)=\frac{exp(R_\theta(\zeta))}{\int_{\tau\in D}\left[{exp(R_{\theta}(\tau))}{\rm d}\tau \right]} P(ζθ)=τD?[exp(Rθ?(τ))dτ]exp(Rθ?(ζ))?
需要注意的是,这里的 R ( θ ) R(\theta) R(θ)指的是累积奖赏而非单步奖赏。
maxent1
但是原paper中给出的损失函数不是最大信息熵而是最大似然,这又是为什么。原paper中给出了一个让人难以理解的解释:

Maximizing the entropy of the distribution over paths subject to the feature constraints from observed data implies that we maximize the likelihood of the observed data under the maximum entropy (exponential family) distribution derived above (Jaynes 1957).

——即从观测数据上满足feature matching的约束(约束1)的条件下最大化轨迹分布的信息熵等价于在最大信息熵分布的条件下从观测数据最大化似然。本文不对此深究,感兴趣的朋友可以研究一下下面这篇论文

Jaynes, E. T. 1957. Information theory and statistical mechanics. Physical Review 106:620–630.

\qquad 而假设是专家系统是最大熵分布的,因此对专家轨迹概率使用最大似然,得到
L ( θ ) = ∑ ζ ∈ E l o g p ( ζ ∣ θ ) L(\theta)=\sum_{\zeta\in E}logp(\zeta|\theta) L(θ)=ζE?logp(ζθ)
即轨迹概率的最大似然。代入最大熵分布下的轨迹概率公式(其中E代表Expert的轨迹空间,而D代表Agent的轨迹空间(可以认为是全部轨迹空间)):
L ( θ ) = ∑ τ ∈ E l o g p ( τ ∣ θ ) = ∑ τ ∈ E l o g 1 Z e x p ( R θ ( τ ) ) = ∑ τ ∈ E R θ ( τ ) ? M l o g Z = ∑ τ ∈ E R θ ( τ ) ? M l o g ∑ τ ∈ D e x p ( R θ ( τ ) ) ? θ L = ∑ τ ∈ E d R θ ( τ ) d θ ? M 1 ∑ τ ∈ D e x p ( R θ ( τ ) ) ∑ τ ∈ D [ e x p ( R θ ( τ ) ) d R θ ( τ ) d θ ] = ∑ τ ∈ E d R θ ( τ ) d θ ? M ∑ τ ∈ D [ e x p ( R θ ( τ ) ) ∑ τ ∈ D e x p ( R θ ( τ ) ) d R θ ( τ ) d θ ] = ∑ τ ∈ E d R θ ( τ ) d θ ? M ∑ τ ∈ D [ p ( τ ∣ θ ) d R θ ( τ ) d θ ] = ∑ τ ∈ E d R θ ( τ ) d θ ? M ∑ s i ∈ S [ p ( s ∣ θ ) d r θ ( s ) d θ ] \begin{aligned} L(\theta) &=\sum_{\tau\in E}logp(\tau|\theta)\\ &=\sum_{\tau\in E}log\frac{1}{Z}exp(R_{\theta}(\tau))\\ &=\sum_{\tau\in E}R_{\theta}(\tau)-MlogZ\\ &=\sum_{\tau\in E}R_{\theta}(\tau)-Mlog\sum_{\tau\in D}exp(R_{\theta}(\tau))\\ \nabla _{\theta}L&=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\frac{1}{\sum_{\tau\in D}exp(R_{\theta}(\tau))}\sum_{\tau\in D}\left[exp(R_{\theta}(\tau))\frac{dR_{\theta}(\tau)}{d\theta}\right]\\ &=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\sum_{\tau\in D}\left[\frac{exp(R_{\theta}(\tau))}{\sum_{\tau\in D}exp(R_{\theta}(\tau))}\frac{dR_{\theta}(\tau)}{d\theta}\right]\\ &=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\sum_{\tau\in D}\left[p(\tau|\theta)\frac{dR_{\theta}(\tau)}{d\theta} \right]\\ &=\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-M\sum_{s_i\in S}\left[p(s|\theta)\frac{dr_{\theta}(s)}{d\theta} \right]\\ \end{aligned} L(θ)?θ?L?=τE?logp(τθ)=τE?logZ1?exp(Rθ?(τ))=τE?Rθ?(τ)?MlogZ=τE?Rθ?(τ)?MlogτD?exp(Rθ?(τ))=τE?dθdRθ?(τ)??MτD?exp(Rθ?(τ))1?τD?[exp(Rθ?(τ))dθdRθ?(τ)?]=τE?dθdRθ?(τ)??MτD?[τD?exp(Rθ?(τ))exp(Rθ?(τ))?dθdRθ?(τ)?]=τE?dθdRθ?(τ)??MτD?[p(τθ)dθdRθ?(τ)?]=τE?dθdRθ?(τ)??Msi?S?[p(sθ)dθdrθ?(s)?]?
归一化的损失函数为:
? θ L  ̄ = 1 M ∑ τ ∈ E d R θ ( τ ) d θ ? ∑ s i ∈ S [ p ( s ∣ θ ) d r θ ( s ) d θ ] \nabla _{\theta}\overline{L}=\frac{1}{M}\sum_{\tau \in E}\frac{dR_{\theta}(\tau)}{d\theta}-\sum_{s_i\in S}\left[p(s|\theta)\frac{dr_{\theta}(s)}{d\theta} \right] ?θ?L=M1?τE?dθdRθ?(τ)??si?S?[p(sθ)dθdrθ?(s)?]
其中M是专家轨迹的条数,如果状态空间是无限的,则不能直接套用此公式。
对于线性Reward,轨迹的累积Reward为
R θ ( ζ ) = θ T f ζ = ∑ s j ∈ ζ θ T f s j R_{\theta}(\zeta)=\theta ^T f_{\zeta}=\sum_{s_j\in \zeta}\theta ^T f_{s_j} Rθ?(ζ)=θTfζ?=sj?ζ?θTfsj??
Expert产生的Feature Expectation为
f ~ = 1 m ∑ i f ζ ~ i \widetilde{f}=\frac{1}{m}\sum_{i}f_{\widetilde{\zeta}_i} f ?=m1?i?fζ ?i??
损失函数梯度可表示为:
? θ L = f ~ ? ∑ s i ∈ S D s i f s i \nabla_{\theta}L=\widetilde{f}-\sum_{s_i\in S}D_{s_i}f_{si} ?θ?L=f ??si?S?Dsi??fsi?
其中D为状态访问频次(State Visitiation Frequency),可以通过不断与环境互动近似出。
总结一下这个公式的推导需要注意一下几点:

  1. 最大熵原则是建立在Feature Matching的基础上的,而轨迹概率分布的公式则是由最大熵原则+约束推导出的
  2. 最大熵原则的轨迹概率分布公式,未知配分函数项Z是在全部轨迹集上求和,因此是使用Agent的轨迹进行近似
  3. 最大化专家系统的轨迹概率似然其实是一个与原问题等价的优化问题,因此损失函数导数的第一项是在Expert的Demonstrations上求和(或求积分),而不是Agent的。

2.仿真

\qquad 本文的仿真平台参照了github上的资源,并进行了略微修改(仿真环境在学徒学习那篇有了详细介绍,在此就不再赘述了):

GitHub源代码

使用方法仍然是直接运行train.py即可(注意需要在mountaincar/maxent/的目录下运行)。和学徒学习的代码一样,也是基于Q-Table的。
\qquad 源代码中对Feature没有做任何的提取,直接将每个状态(20个位置采样×20个速度采样总共400个离散状态)作为Feature。假设不同特征之间是解耦的,Feature Matrix就是对角矩阵,即因此状态访问频次×特征即特征访问频次。
\qquad 在源代码中learner_feature_expectations即特征访问频次,而归一化之后即为梯度的第二项
源代码的其中一部分如下:

	expert = expert_feature_expectations(feature_matrix, demonstrations)
    learner_feature_expectations = np.zeros(n_states)

    theta = -(np.random.uniform(size=(n_states,)))

    episodes, scores = [], []

    for episode in range(30000):
        state = env.reset()
        score = 0

        if (episode != 0 and episode == 10000) or (episode > 10000 and episode % 5000 == 0):
            learner = learner_feature_expectations / episode
            maxent_irl(expert, learner, theta, theta_learning_rate)
                
        while True:
            state_idx = idx_state(env, state)
            action = np.argmax(q_table[state_idx])
            next_state, reward, done, _ = env.step(action)
            
            irl_reward = get_reward(feature_matrix, theta, n_states, state_idx)
            next_state_idx = idx_state(env, next_state)
            update_q_table(state_idx, action, irl_reward, next_state_idx)
            
            learner_feature_expectations += feature_matrix[int(state_idx)]

看完原github的程序,本人还有一个疑点,即是maxent.py文件中的一段

def maxent_irl(expert, learner, theta, learning_rate):
    gradient = expert - learner
    theta += learning_rate * gradient
    # Clip theta
    for i in range(len(theta)):
    	if theta[i]>0:
    		theta[i]=0

\qquad 原文中的clip theta实际上是防止theta超过0,类似于深度学习中的梯度截断操作,然而这个操作在我尝试多次之后并无用处,而且也没有任何意义(因为在theta>0后,也会在下一次迭代时通过学习使得theta重新<0)。本人的建议是增加一个学习率递减的schedule,并且将clip的范围从[-inf,0]修改到[-0.5,0.5],可以获得相对稳定的学习率曲线,下面分别是clip(-0.5,0.5)和clip(-0.5,0)的对比:

clip(-0.5,0.5)clip(-0.5,0)
np.clip在这里插入图片描述

\qquad 可以发现增加一部分梯度的正向范围反而更有利于学习,这是由于expert-learn的极小值是在0处取得的,然而在学习率固定时,改函数会在离散迭代时在0附近震荡,梯度若在0处截断会导致学习率锐减为0(可能正是原作者用意?)。

下面是test.py保存的几组gif的图

Reward=-158Reward=-138Reward=-146
在这里插入图片描述在这里插入图片描述在这里插入图片描述

希望本文对您有帮助,谢谢阅读!

  人工智能 最新文章
2022吴恩达机器学习课程——第二课(神经网
第十五章 规则学习
FixMatch: Simplifying Semi-Supervised Le
数据挖掘Java——Kmeans算法的实现
大脑皮层的分割方法
【翻译】GPT-3是如何工作的
论文笔记:TEACHTEXT: CrossModal Generaliz
python从零学(六)
详解Python 3.x 导入(import)
【答读者问27】backtrader不支持最新版本的
上一篇文章      下一篇文章      查看所有文章
加:2021-09-02 11:21:53  更:2021-09-02 11:23:07 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/27 16:50:29-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码