马尔科夫决策过程之Markov Processes(马尔科夫过程)

362 👍 / 6 💬

介绍Markov Processes之前,必须介绍一下马尔科夫性质。

一、Markov Property

具有马尔科夫性质的状态满足下面公式:
[公式]

根据公式也就是说给定当前状态[公式] ,将来的状态与t时刻之前的状态已经没有关系。

如下图解释:

二、State Transition Matrix

可以用下面的状态转移概率公式来描述马尔科夫性:

[公式]

下面状态转移矩阵定义了所有状态的转移概率:

其中的每行和为1.为什么每行和为1。我们可以举一个例子,比如我们掷骰子游戏,当前的点数为1,那么我们再一次掷骰子得到的点数的概率是多少呢?

对应于上面转移概率来说,即使我们不知道下一个具体点数的概率,但是我们至少知道下一个点数是1,2,3,4,5,6中的某一点,那么就会有:

[公式] 这就解释了为什么每行和为1.

三、Markov Process

马尔科夫过程一个无记忆的随机过程,是一些具有马尔科夫性质的随机状态序列构成,可以用一个元组<S,P>表示,其中S是有限数量的状态集,P是状态转移概率矩阵。如下:

四、Student Markov Chain

学生马尔科夫链这个例子基本贯穿了本讲内容:

图中,圆圈表示学生所处的状态,方格Sleep是一个终止状态,或者可以描述成自循环的状态,也就是Sleep状态的下一个状态100%的几率还是自己。箭头表示状态之间的转移,箭头上的数字表示当前转移的概率。

举例说明:当学生处在第一节课(Class1)时,他/她有50%的几率会参加第2节课(Class2);同时在也有50%的几率不在认真听课,进入到浏览facebook这个状态中。

在浏览facebook这个状态时,会有90%的几率在下一时刻继续浏览,也有10%的几率返回到课堂内容上来。

当学生进入到第二节课(Class2)时,会有80%的几率继续参加第三节课(Class3),也有20%的几率觉得课程较难而退出(Sleep)。

当学生处于第三节课这个状态时,他有60%的几率通过考试,继而100%的退出该课程,也有40%的可能性需要到去图书馆之类寻找参考文献,此后根据其对课堂内容的理解程度,又分别有20%、40%、40%的几率返回值第一、二、三节课重新继续学习。

五、Example: Student Markov Chain Episodes

一个可能的学生马尔科夫链从状态Class1开始,最终结束于Sleep,其间的过程根据状态转化图可以有很多种可能性,这些都称为Sample Episodes。比如下面四个Episodes都是可能的:

C1 - C2 - C3 - Pass - Sleep

C1 - FB - FB - C1 - C2 - Sleep

C1 - C2 - C3 - Pub - C2 - C3 - Pass - Sleep

C1 - FB - FB - C1 - C2 - C3 - Pub - C1 - FB - FB - FB - C1 - C2 - C3 - Pub - C2 - Sleep

我们可以使用采样技术来sample一些Episodes。

slides如下:

六、Example: Student Markov Chain Transition Matrix

该学生马尔科夫过程的状态转移矩阵如下图:

暂时总结到这,下一讲总结Markov Reward Processes、Value function等知识点~

参考:

David Silver深度强化学习课程 第2课 - 马尔科夫决策过程

叶强:《强化学习》第二讲 马尔科夫决策过程


专栏:机器学习算法与自然语言处理