200字范文,内容丰富有趣,生活中的好帮手!
200字范文 > 【强化学习】强化学习概述

【强化学习】强化学习概述

时间:2022-11-25 02:10:18

相关推荐

【强化学习】强化学习概述

文章目录

1 强化学习1.1 强化学习定义1.2 马尔可夫决策过程1.3 强化学习的目标函数1.3.1 总回报1.3.1 目标函数 1.4 值函数1.4.1 状态值函数1.4.2 状态-动作值函数14.3 值函数的作用 1.5 强化学习的分类1.5.1 按任务分类1.5.2按算法分类 2 强化学习、监督学习和非监督学习区别

1 强化学习

在人工智能领域中,强化学习是一类特定的机器学习问题。在一个强化学习系统中,决策者可以观察环境,并根据观测做出行动。在行动之后,能够获得奖励。强化学习通过与环境的交互来学习如何最大化奖励。例如,一个走迷宫的机器鼠在迷宫里游荡,目的是寻找一块奶酪。

机器人观察周围的环境,并且根据观测来决定如何移动。错误的移动会让机器人浪费宝贵的时间和能量,正确的移动会让机器人最终得到奶酪。在这个例子中,机器人的移动就是它根据观测而采取的行动,奶酪和浪费的时间能量就是给机器人的奖励(时间能量的浪费可以看作负奖励)。

强化学习的最大特点是在学习过程中没有正确答案,而是通过奖励机制来学习。在上述例子中,机器鼠不会知道每次移动是否正确,只能通过花费的时间能量以及是否得到奶酪来判断移动的合理性。

1.1 强化学习定义

在强化学习中,有两个可以进行交互的对象:智能体和环境。(注意:强化学习问题不一定要借助智能体/环境接口来研究,本文只讨论智能体/环境接口的情况。)

图片来源[1]

智能体(agent)可以感知外界环境的状态(state)和反馈的奖励(reward),并进行学习和决策。智能体的决策功能是指根据外界环境的状态来做出不同的动作(action),而学习功能是指根据外界环境的奖励来调整策略。一个强化学习系统里可以有一个或多个智能体。在强化学习算法中,我们并不需要对智能体本身进行建模,只需要了解它在不同环境下可以做出的动作,并接受奖励信号。

环境(environment)是智能体外部的所有事物,智能体在环境中执行动作后都会使得自己处于不同的状态,并接受环境反馈的奖励。环境本身可以是确定性的,也可以是不确定性的。环境可能是已知的,也可能是未知的。

在强化学习中的基本要素包括:

状态(state) s s s:来自于状态空间 S S S,为智能体所处的状态,一个不断变化的量,可以是离散的或连续的。

动作a a a(action),来自动作空间 A A A,是对智能体行为的描述,可以是离散的或连续的。

状态转移概率p ( s ′ ∣ s , a t ) p(s_{'}|s,a_t) p(s′​∣s,at​)是在智能体根据当前状态 s s s做出一个动作 a a a之后, 环境在下一个时刻转变为状态 s ′ s_{'} s′​的概率;

奖励r ( s , a t , s ′ ) r(s,a_t,s_{'}) r(s,at​,s′​)是一个标量函数,即智能体根据当前状态 s s s做出动作 a a a 之后,环境会反馈给智能体一个奖励,这个奖励也经常和下一个时刻的状态 s ′ s_{'} s′​有关。

策略智能体的策略(policy)就是智能体如何根据环境状态 s s s来决定下一步的动作 a a a,通常可以分为确定性策略(Deterministic Policy)和随机性策略(StochasticPolicy)两组。

确定性策略是从状态空间到动作空间的映射函数 π : S → A π : S → A π:S→A。随机性策略表示在给定环境状态时,智能体选择某个动作的概率分布

π ( a ∣ s ) ≜ p ( a ∣ s ) ∑ a ∈ A π ( a ∣ s ) = 1 \begin{aligned} \pi(a \mid s) & \triangleq p(a \mid s) \\ \sum_{a \in \mathcal{A}} \pi(a \mid s) &=1 \end{aligned} π(a∣s)a∈A∑​π(a∣s)​≜p(a∣s)=1​

通常情况下,强化学习一般使用随机性的策略。随机性的策略可以有很多优点。比如在学习时可以通过引入一定随机性更好地探索环境。二是使得策略更加地多样性。比如在围棋中,确定性策略总是会在同一个位置上下棋,会导致你的策略很容易被对手预测。

1.2 马尔可夫决策过程

智能体与环境的交互如下:

智能体从感知到的初始环境获取初始状态 s 0 s_0 s0​开始,然后决定做一个相应的动作 a 0 a_0 a0​,执行动作后智能体的状态变为 s 1 s_1 s1​,与此同时环境反馈给智能体一个即时奖励 r 1 r_1 r1​,接着智能体又根据状态 s 1 s_1 s1​做一个动作 a 1 a_1 a1​,状态相应改变为 s 2 s_2 s2​,并得到奖励 r 2 r_2 r2​。这样的交互可以一直进行下去:

s 0 , a 0 , s 1 , r 1 , a 1 , ⋯ , s t − 1 , r t − 1 , a t − 1 , s t , r t , ⋯ s_{0}, a_{0}, s_{1}, r_{1}, a_{1}, \cdots, s_{t-1}, r_{t-1}, a_{t-1}, s_{t}, r_{t}, \cdots s0​,a0​,s1​,r1​,a1​,⋯,st−1​,rt−1​,at−1​,st​,rt​,⋯

其中 r t = r ( s t − 1 , a t − 1 , s t ) r_t=r(s_{t-1},a_{t-1},s_t) rt​=r(st−1​,at−1​,st​)是第 t t t时刻的即时奖励。

马尔可夫过程(Markov Process)是具有马尔可夫性的随机变量序列 s 0 , s 1 , . . . , s t ∈ S s_0,s_1,...,s_t\in S s0​,s1​,...,st​∈S,其下一个时刻的状态 s t + 1 s_{t+1} st+1​只取决于当前状态 s t s_t st​:

p ( s t + 1 ∣ s t , ⋯ , s 0 ) = p ( s t + 1 ∣ s t ) p\left(s_{t+1} \mid s_{t}, \cdots, s_{0}\right)=p\left(s_{t+1} \mid s_{t}\right) p(st+1​∣st​,⋯,s0​)=p(st+1​∣st​)

其中 p ( s t + 1 ∣ s t ) p\left(s_{t+1} \mid s_{t}\right) p(st+1​∣st​)称为状态转移概率,

∑ s t + 1 ∈ S p ( s t + 1 ∣ s t ) = 1 \sum_{s_{t+1} \in \mathcal{S}} p\left(s_{t+1} \mid s_{t}\right)=1 st+1​∈S∑​p(st+1​∣st​)=1

马尔可夫决策过程在马尔可夫过程中加入一个额外的变量:动作 a a a,即下一时刻的状态 s t + 1 s_{t+1} st+1​,和当前时刻的状态 s t s_t st​以及动作 a t a_t at​相关

p ( s t + 1 ∣ s t , a t , ⋯ , s 0 , a 0 ) = p ( s t + 1 ∣ s t , a t ) p\left(s_{t+1} \mid s_{t}, a_{t}, \cdots, s_{0}, a_{0}\right)=p\left(s_{t+1} \mid s_{t}, a_{t}\right) p(st+1​∣st​,at​,⋯,s0​,a0​)=p(st+1​∣st​,at​)

其中 p ( s t + 1 ∣ s t , a t ) p\left(s_{t+1} \mid s_{t}, a_{t}\right) p(st+1​∣st​,at​)为状态转移概率。

给定策略 π ( a ∣ s ) ≜ p ( a ∣ s ) \pi(a \mid s) \triangleq p(a \mid s) π(a∣s)≜p(a∣s),马尔可夫决策过程的一个轨迹

τ = s 0 , a 0 , s 1 , r 1 , a 1 , ⋯ , s T − 1 , a T − 1 , s T , r T \tau=s_{0}, a_{0}, s_{1}, r_{1}, a_{1}, \cdots, s_{T-1}, a_{T-1}, s_{T}, r_{T} τ=s0​,a0​,s1​,r1​,a1​,⋯,sT−1​,aT−1​,sT​,rT​

的概率为:

p ( τ ) = p ( s 0 , a 0 , s 1 , a 1 , ⋯ ) = p ( s 0 ) ∏ t = 0 T − 1 π ( a t ∣ s t ) p ( s t + 1 ∣ s t , a t ) \begin{aligned} p(\tau) &=p\left(s_{0}, a_{0}, s_{1}, a_{1}, \cdots\right) \\ &=p\left(s_{0}\right) \prod_{t=0}^{T-1} \pi\left(a_{t} \mid s_{t}\right) p\left(s_{t+1} \mid s_{t}, a_{t}\right) \end{aligned} p(τ)​=p(s0​,a0​,s1​,a1​,⋯)=p(s0​)t=0∏T−1​π(at​∣st​)p(st+1​∣st​,at​)​

马尔可夫决策过程的图模型表示如下:

图片来源[1]

1.3 强化学习的目标函数

1.3.1 总回报

给定 π ( a ∣ s ) \pi(a|s) π(a∣s),,智能体和环境一次交互过程的轨迹 τ \tau τ所收到的累积奖励为总回报。

G ( τ ) = ∑ t = 0 T − 1 r t + 1 = ∑ t = 0 T − 1 r ( s t , a t , s t + 1 ) \begin{aligned} G(\tau) &=\sum_{t=0}^{T-1} r_{t+1} \\ &=\sum_{t=0}^{T-1} r\left(s_{t}, a_{t}, s_{t+1}\right) \end{aligned} G(τ)​=t=0∑T−1​rt+1​=t=0∑T−1​r(st​,at​,st+1​)​

假设环境中有一个或多个特殊的终止状态(terminal state),当到达终止状态时,一个智能体和环境的交互过程就结束了。这一轮交互的过程称为一个回合(episode)或试验(trial)。一般的强化学习任务(比如下棋、游戏)都属于这种回合式的任务。

如果环境中没有终止状态(比如终身学习的机器人),即 T = ∞ T=∞ T=∞,称为持续性强化学习任务,其总回报也可能是无穷大。为了解决这个问题,我们可以引入一个折扣率来降低远期回报的权重。折扣回报(discounted return)定义为

G ( τ ) = ∑ t = 0 T − 1 γ t r t + 1 G(\tau)=\sum_{t=0}^{T-1} \gamma^{t} r_{t+1} G(τ)=t=0∑T−1​γtrt+1​

其中 γ ∈ [ 0 , 1 ] \gamma\in [0,1] γ∈[0,1]是折扣率。当 γ \gamma γ接近于0时,智能体更在意短期回报;而当 γ \gamma γ接近于1时,长期回报变得更重要。

1.3.1 目标函数

因为策略和状态转移都有一定的随机性,每次试验得到的轨迹是一个随机序列,其收获的总回报也不一样。强化学习的目标是学习到一个策略 p θ ( a ∣ s ) p_{\theta}(a|s) pθ​(a∣s)来最大化期望回报(expected reward),即希望智能体执行一系列的动作来获得尽可能多的平均回报。

J ( θ ) = E τ ∼ p θ ( τ ) [ G ( τ ) ] = E τ ∼ p θ ( τ ) [ ∑ t = 0 T − 1 γ t r t + 1 ] \mathcal{J}(\theta)=\mathbb{E}_{\tau \sim p_{\theta}(\tau)}[G(\tau)]=\mathbb{E}_{\tau \sim p_{\theta}(\tau)}[\sum_{t=0}^{T-1} \gamma^{t} r_{t+1}] J(θ)=Eτ∼pθ​(τ)​[G(τ)]=Eτ∼pθ​(τ)​[t=0∑T−1​γtrt+1​]

其中 θ \theta θ为策略函数的参数。

1.4 值函数

为了评估一个策略 π π π的期望回报,我们定义两个值函数:状态值函数和状态-动作值函数

1.4.1 状态值函数

一个策略 π \pi π期望回报可以分解为

E τ ∼ p ( τ ) [ G ( τ ) ] = E s ∼ p ( s 0 ) [ E τ ∼ p ( τ ) [ ∑ t = 0 T − 1 γ t r t + 1 ∣ τ s 0 = s ] ] = E s ∼ p ( s 0 ) [ V π ( s ) ] \begin{aligned} \mathbb{E}_{\tau \sim p(\tau)}[G(\tau)] &=\mathbb{E}_{s \sim p\left(s_{0}\right)}\left[\mathbb{E}_{\tau \sim p(\tau)}\left[\sum_{t=0}^{T-1} \gamma^{t} r_{t+1} \mid \tau_{s_{0}}=s\right]\right] \\ &=\mathbb{E}_{s \sim p\left(s_{0}\right)}\left[V^{\pi}(s)\right] \end{aligned} Eτ∼p(τ)​[G(τ)]​=Es∼p(s0​)​[Eτ∼p(τ)​[t=0∑T−1​γtrt+1​∣τs0​​=s]]=Es∼p(s0​)​[Vπ(s)]​

其中 V π ( s ) V^{\pi}(s) Vπ(s)称为状态值函数(state value function),表示从状态 s s s开始,执行策略 π \pi π得到的期望总回报

V π ( s ) = E τ ∼ p ( τ ) [ ∑ t = 0 T − 1 γ t r t + 1 ∣ τ s 0 = s ] V^{\pi}(s)=\mathbb{E}_{\tau \sim p(\tau)}\left[\sum_{t=0}^{T-1} \gamma^{t} r_{t+1} \mid \tau_{s_{0}}=s\right] Vπ(s)=Eτ∼p(τ)​[t=0∑T−1​γtrt+1​∣τs0​​=s]

其中 τ s 0 \tau_{s_0} τs0​​表示轨迹 τ \tau τ的起始状态。

为了方便起见,我们用 τ 0 : T \tau_0:T τ0​:T来表示从轨迹 s 0 , a 0 , s 1 , r 1 , a 1 , ⋯ , s T − 1 , a T − 1 , s T , r T s_{0}, a_{0}, s_{1}, r_{1}, a_{1}, \cdots, s_{T-1}, a_{T-1}, s_{T}, r_{T} s0​,a0​,s1​,r1​,a1​,⋯,sT−1​,aT−1​,sT​,rT​,用 τ 1 : T \tau_1:T τ1​:T表示轨迹 s 1 , r 1 , a 1 , ⋯ , s T − 1 , a T − 1 , s T , r T s_{1}, r_{1}, a_{1}, \cdots, s_{T-1}, a_{T-1}, s_{T}, r_{T} s1​,r1​,a1​,⋯,sT−1​,aT−1​,sT​,rT​,因此有 τ 0 : T = s 0 , a 0 , τ 1 : T \tau_0:T=s_0,a_0,\tau_1:T τ0​:T=s0​,a0​,τ1​:T。且

根据马尔可夫性, V π ( s ) V_{\pi}(s) Vπ​(s)可展开得到

V π ( s ) = E τ 0 : T ∼ p ( τ ) [ r 1 + γ ∑ t = 1 T − 1 γ t − 1 r t + 1 ∣ τ s 0 = s ] V^{\pi}(s)=\mathbb{E}_{\tau_{0: T} \sim p(\tau)}\left[r_{1}+\gamma \sum_{t=1}^{T-1} \gamma^{t-1} r_{t+1} \mid \tau_{s_{0}}=s\right] Vπ(s)=Eτ0:T​∼p(τ)​[r1​+γt=1∑T−1​γt−1rt+1​∣τs0​​=s]

= E a ∼ π ( a ∣ s ) E s ′ ∼ p ( s ′ ∣ s , a ) E τ 1 : T ∼ p ( τ ) [ r ( s , a , s ′ ) + γ ∑ t = 1 T − 1 γ t − 1 r t + 1 ∣ τ s 1 = s ′ ] =\mathbb{E}_{a \sim \pi(a \mid s)} \mathbb{E}_{s^{\prime} \sim p\left(s^{\prime} \mid s, a\right)} \mathbb{E}_{\tau_{1: T \sim p(\tau)}}\left[r\left(s, a, s^{\prime}\right)+\gamma \sum_{t=1}^{T-1} \gamma^{t-1} r_{t+1} \mid \tau_{s_{1}}=s^{\prime}\right] =Ea∼π(a∣s)​Es′∼p(s′∣s,a)​Eτ1:T∼p(τ)​​[r(s,a,s′)+γt=1∑T−1​γt−1rt+1​∣τs1​​=s′]

= E a ∼ π ( a ∣ s ) E s ′ ∼ p ( s ′ ∣ s , a ) [ r ( s , a , s ′ ) + γ E τ 1 : T ∼ p ( τ ) [ ∑ t = 1 T − 1 γ t − 1 r t + 1 ∣ τ s 1 = s ′ ] ] =\mathbb{E}_{a \sim \pi(a \mid s)} \mathbb{E}_{s^{\prime} \sim p\left(s^{\prime} \mid s, a\right)}\left[r\left(s, a, s^{\prime}\right)+\gamma \mathbb{E}_{\tau_{1: T} \sim p(\tau)}\left[\sum_{t=1}^{T-1} \gamma^{t-1} r_{t+1} \mid \tau_{s_{1}}=s^{\prime}\right]\right] =Ea∼π(a∣s)​Es′∼p(s′∣s,a)​[r(s,a,s′)+γEτ1:T​∼p(τ)​[t=1∑T−1​γt−1rt+1​∣τs1​​=s′]]

= E a ∼ π ( a ∣ s ) E s ′ ∼ p ( s ′ ∣ s , a ) [ r ( s , a , s ′ ) + γ V π ( s ′ ) ] =\mathbb{E}_{a \sim \pi(a \mid s)} \mathbb{E}_{s^{\prime} \sim p\left(s^{\prime} \mid s, a\right)}\left[r\left(s, a, s^{\prime}\right)+\gamma V^{\pi}\left(s^{\prime}\right)\right] =Ea∼π(a∣s)​Es′∼p(s′∣s,a)​[r(s,a,s′)+γVπ(s′)]

这个公式也称为贝尔曼方程(Bellman equation),表示当前状态的值函数可以通过下个状态的值函数来计算。

如果给定策略 π ( a ∣ s ) \pi(a|s) π(a∣s),状态转移概率 p ( s ′ ∣ s , a ) p(s'|s,a) p(s′∣s,a)和奖励 r ( s , a , s ′ ) r(s,a,s′) r(s,a,s′),我们就可以通过迭代的方式来计算 V π ( s ) V π(s) Vπ(s)。由于存在折扣率,迭代一定步数后,每个状态的值函数就会固定不变。

1.4.2 状态-动作值函数

E a ∼ π ( a ∣ s ) E s ′ ∼ p ( s ′ ∣ s , a ) [ r ( s , a , s ′ ) + γ V π ( s ′ ) ] \mathbb{E}_{a \sim \pi(a \mid s)} \mathbb{E}_{s^{\prime} \sim p\left(s^{\prime} \mid s, a\right)}\left[r\left(s, a, s^{\prime}\right)+\gamma V^{\pi}\left(s^{\prime}\right)\right] Ea∼π(a∣s)​Es′∼p(s′∣s,a)​[r(s,a,s′)+γVπ(s′)]

上式中的第二个期望是指初始状态为 s s s并进行动作 a a a,然后执行策 略 π π π得到的期望总回报,称为状态-动作值函数(state-action value function),

Q π ( s , a ) = E s ′ ∼ p ( s ′ ∣ s , a ) [ r ( s , a , s ′ ) + γ V π ( s ′ ) ] , Q^{\pi}(s, a)=\mathbb{E}_{s^{\prime} \sim p\left(s^{\prime} \mid s, a\right)}\left[r\left(s, a, s^{\prime}\right)+\gamma V^{\pi}\left(s^{\prime}\right)\right], Qπ(s,a)=Es′∼p(s′∣s,a)​[r(s,a,s′)+γVπ(s′)],

状态-动作值函数也经常称为Q函数(Q-function)。

状态值函数 V π ( s ) V_{\pi}(s) Vπ​(s)是Q函数 Q π ( s , a ) Q_π(s,a) Qπ​(s,a)关于动作 a a a的期望,

V π ( s ) = E a ∼ π ( a ∣ s ) [ Q π ( s , a ) ] V^{\pi}(s)=\mathbb{E}_{a \sim \pi(a \mid s)}\left[Q^{\pi}(s, a)\right] Vπ(s)=Ea∼π(a∣s)​[Qπ(s,a)]

结合以上两式,Q函数可以写为

Q π ( s , a ) = E s ′ ∼ p ( s ′ ∣ s , a ) [ r ( s , a , s ′ ) + γ E a ′ ∼ π ( a ′ ∣ s ′ ) [ Q π ( s ′ , a ′ ) ] ] Q^{\pi}(s, a)=\mathbb{E}_{s^{\prime} \sim p\left(s^{\prime} \mid s, a\right)}\left[r\left(s, a, s^{\prime}\right)+\gamma \mathbb{E}_{a^{\prime} \sim \pi\left(a^{\prime} \mid s^{\prime}\right)}\left[Q^{\pi}\left(s^{\prime}, a^{\prime}\right)\right]\right] Qπ(s,a)=Es′∼p(s′∣s,a)​[r(s,a,s′)+γEa′∼π(a′∣s′)​[Qπ(s′,a′)]]

这是关于Q函数的贝尔曼方程。

14.3 值函数的作用

值函数可以看作是对策略 π π π的评估。如果在状态 s s s,有一个动作 a a a使得 Q π ( s , a ) > V π ( s ) Qπ(s,a) > V π(s) Qπ(s,a)>Vπ(s),说明执行动作 a a a比当前的策略 π ( a ∣ s ) π(a|s) π(a∣s)要好,我们就可以调整参数使得策略 π ( a ∣ s ) π(a|s) π(a∣s)的概率增加。

A π ( s , a ) = Q π ( s , a ) − V π ( s ) A_{\pi}(s,a)=Qπ(s,a) - V π(s) Aπ​(s,a)=Qπ(s,a)−Vπ(s)

称为优势函数。

1.5 强化学习的分类

1.5.1 按任务分类

根据强化学习的任务和环境,可以将强化学习任务作以下分类。

单智能体任务(single agent task)和多智能体任务(multi-agent task):顾名思义,根据系统中的智能体数量,可以将任务划分为单智能体任务和多智能体任务。单智能体任务中只有一个决策者,它能得到所有可以观察到的观测,并能感知全局的奖励值;多智能体任务中有多个决策者,它们只能知道自己的观测,感受到环境给它的奖励。

回合制任务(episodic task)和连续性任务(sequential task):对于回合制任务,可以有明确的开始状态和结束状态。例如在下围棋的时候,刚开始棋盘空空如也,最后棋盘都摆满了,一局棋就可以看作是一个回合。下一个回合开始时,一切重新开始。也有一些问题没有明确的开始和结束,比如机房的资源调度。机房从启用起就要不间断地处理各种信息,没有明确的结束又重新开始的时间点。

离散时间环境(discrete time environment)和连续时间环境(continuoustime environment):如果智能体和环境的交互是分步进行的,那么就是离散时间环境。如果智能体和环境的交互是在连续的时间中进行的,那么就是连续时间环境。

离散动作空间(discrete action space)和连续动作空间(continuousaction space):这是根据决策者可以做出的动作数量来划分的。如果决策得到的动作数量是有限的,则为离散动作空间,否则为连续动作空间。例如,走迷宫机器人如果只有东南西北这4种移动方式,则其为离散动作空间;如果机器人向360°中的任意角度都可以移动,则为连续动作空间。

确定性环境任务(deterministic environment)和非确定性环境(stochastic environment):按照环境是否具有随机性,可以将强化学习的环境分为确定性环境和非确定性环境。例如,对于机器人走固定的某个迷宫的问题,只要机器人确定了移动方案,那么结果就总是一成不变的。这样的环境就是确定性的。但是,如果迷宫会时刻随机变化,那么机器人面对的环境就是非确定性的。

完全可观测环境(fully observable environment)和非完全可观测环境(partially observable environment):如果智能体可以观测到环境的全部知识,则环境是完全可观测的;如果智能体只能观测到环境的部分知识,则环境是非完全可观测的。例如,围棋问题就可以看作是一个完全可观测的环境,因为我们可以看到棋盘的所有内容,并且假设对手总是用最优方法执行;扑克则不是完全可观测的,因为我们不知道对手手里有哪些牌。

1.5.2按算法分类

从算法角度,可以对强化学习算法作以下分类

同策学习(on policy)和异策学习(off policy):同策学习是边决策边学习,学习者同时也是决策者。异策学习则是通过之前的历史(可以是自己的历史也可以是别人的历史)进行学习,学习者和决策者不需要相同。在异策学习的过程中,学习者并不一定要知道当时的决策。例如,围棋AI可以边对弈边学习,这就算同策学习;围棋AI也可以通过阅读人类的对弈历史来学习,这就算异策学习。

有模型学习(model-based)和无模型学习(model free):在学习的过程中,如果用到了环境的数学模型,则是有模型学习;如果没有用到环境的数学模型,则是无模型学习。对于有模型学习,可能在学习前环境的模型就已经明确,也可能环境的模型也是通过学习来获得。例如,对于某个围棋AI,它在下棋的时候可以在完全了解游戏规则的基础上虚拟出另外一个棋盘并在虚拟棋盘上试下,通过试下来学习。这就是有模型学习。与之相对,无模型学习不需要关于环境的信息,不需要搭建假的环境模型,所有经验都是通过与真实环境交互得到。

回合更新(Monte Carlo update)和时序差分更新(temporal differenceupdate):回合制更新是在回合结束后利用整个回合的信息进行更新学习;而时序差分更新不需要等回合结束,可以综合利用现有的信息和现有的估计进行更新学习。

基于价值(value based)和基于策略(policy based):基于价值的强化学习定义了状态或动作的价值函数,来表示到达某种状态或执行某种动作后可以得到的回报。基于价值的强化学习倾向于选择价值最大的状态或动作;基于策略的强化学习算法不需要定义价值函数,它可以为动作分配概率分布,按照概率分布来执行动作。

深度强化学习:在强化学习中,一般需要建模策略 π ( a ∣ s ) π(a|s) π(a∣s)和值函数 V π ( s ) V_π(s) Vπ​(s), Q π ( s , a ) Q_π(s,a) Qπ​(s,a)。早期 的强化学习算法主要关注于状态和动作都是离散且有限的问题,可以使用表格 来记录这些概率。但在很多实际问题中,有些任务的状态和动作的数量非常多。比如围棋的棋局有 3 361 ≈ 1 0 170 3^{361} ≈10^{170} 3361≈10170种状态,动作(即落子位置)数量为361。还有些任务的状态和动作是连续的。比如在自动驾驶中,智能体感知到的环境状态 是各种传统器数据,一般都是连续的。动作是操作方向盘的方向(−90∼90度) 和速度控制(0∼300公里/小时),也是连续的。为了有效地解决这些问题,可以一个复杂的函数(比如深度神经网络)来 使得智能体可以感知更复杂的环境状态以及建立更复杂的策略,提高强化学习算法的能力,并提高泛化能力。 深度强化学习(deep reinforcement learning)是将强化学习和深度学习结合在一起,用强化学习来定义问题和优化目标,用深度学习来解决策略和值函数。的建模问题,然后使用误差反向传播算法来优化目标函数。深度强化学习在一 定程度上具备解决复杂问题的通用智能,并在很多任务上都取得了很大的成功。

2 强化学习、监督学习和非监督学习区别

强化学习与监督学习的区别在于:

对于监督学习,学习者知道每个动作的正确答案是什么,可以通过逐步比对来学习;与此同时,监督学习希望能将学习的结果运用到未知的数据,要求结果可推广、可泛化;对于强化学习,学习者不知道每个动作的正确答案,只能通过奖励信号来学习。强化学习要最大化一段时间内的奖励,需要关注更加长远的性能;其学习结果得用在训练的环境中。所以,监督学习一般运用于判断、预测等任务,如判断图片的内容、预测股票价格等;而强化学习不适用于这样的任务。

强化学习与非监督学习的区别在于:

非监督学习旨在发现数据之间隐含的结构;而强化学习有着明确的数值目标,即奖励。它们的研究目的不同。所以,非监督学习一般用于聚类等任务,而强化学习不适用于这样的任务。

参考:

[1] 邱锡鹏 《神经网络与深度学习》

[2] 肖智清 《强化学习:原理与Python实现》

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。