Skip to content

Commit

Permalink
更新E步理解
Browse files Browse the repository at this point in the history
  • Loading branch information
SmirkCao committed Sep 18, 2018
1 parent da11863 commit b6c337e
Showing 1 changed file with 8 additions and 1 deletion.
9 changes: 8 additions & 1 deletion CH10/README.md
Original file line number Diff line number Diff line change
Expand Up @@ -250,6 +250,7 @@ $$
>
>
>
>
- 这里需要**注意**下, 按照后向算法, $\beta$在递推过程中会越来越小, 如果层数较多, 怕是$P(O|\lambda)$会消失
- 另外一个要注意的点$\color{red}o_{t+1}\beta_{t+1}$
Expand Down Expand Up @@ -321,7 +322,13 @@ Baum-Welch算法是EM算法在隐马尔可夫模型学习中的**具体实现**,

-Welch算法中会用到, 代码实现的时候才理解, 这小节对应的是E步概率和期望, 后面算法里面的是M步的内容, 说明如何用这些概率和期望去更新HMM模型的参数.

这部分的理解, 要再结合第九章的内容反复一下.
重新梳理一下整个10.2节的内容, 这部分内容描述**概率计算方法 **, 实际上在E步操作的时候都要用到, 需要用到前向后向算法根据模型参数$A,B,\pi$来更新$\alpha$和$\beta$, 然后利用这两个值来更新一些概率和期望, 再通过模型参数的递推公式来更新模型参数.

这里可能还有点疑问, EM算法的描述里面, E步计算的是Q函数, 但是前面的描述似乎并没有显示Q函数和这些工作之间的关系.另外, M步具体操作是参数更新的递推公式, 怎么就是最大化了呢? 书中$P_{182}$的推导也许能解释这个问题.

看到这里, 感觉书上真的是一句废话都没有...

这部分的理解, 要再结合第九章的内容反复一下, 应该会有新的体会.

### Viterbi算法

Expand Down

0 comments on commit b6c337e

Please sign in to comment.