Skip to content

Commit

Permalink
update notes for EM
Browse files Browse the repository at this point in the history
  • Loading branch information
szcf-weiya committed Jan 8, 2022
1 parent 1c0f1f3 commit e8493d9
Showing 1 changed file with 7 additions and 2 deletions.
9 changes: 7 additions & 2 deletions docs/08-Model-Inference-and-Averaging/8.5-The-EM-Algorithm.md
Original file line number Diff line number Diff line change
Expand Up @@ -4,7 +4,7 @@
| ---- | ---------------------------------------- |
| 翻译 | szcf-weiya |
| 发布 | 2017-02-08 |
|更新|2018-04-29, 2018-10-04|
|更新|{{ git_revision_date }}|
|状态|Done|

EM 算法是简化复杂极大似然问题的一种很受欢迎的工具.我们首先在一个简单的混合模型中讨论它.
Expand Down Expand Up @@ -85,7 +85,12 @@ $$

构造初始的 $\hat\mu_1$ 和 $\hat\mu_2$ 的一种很好的方式便是简单地随机选择 $y_i$ 中的两个值.$\hat\sigma^2_1$ 和 $\hat\sigma^2_2$ 都等于整体的样本方差 $\sum_{i=1}^N(y_i-\bar y)^2/N$.最大比例的 $\hat\pi$ 可以从 0.5 开始.

注意到实际中概率的最大值发生在当我们固定一个数据点,换句话说,对于一些 $i$ 令 $\hat\mu_1=y_i$,$\hat\sigma^2_1=0$.这给出了无限大的概率,但是这不是一个有用的解.因此实际上我们寻找概率的一个良好的局部最大值,满足 $\hat\sigma^2_1,\hat\sigma^2_2>0$.进一步,可以有多个局部最大值满足$\hat\sigma^2_1,\hat\sigma^2_2>0$.在我们例子中,我们用一系列不同的初始参数值来运行 EM 算法,所有的都满足 $\hat\sigma^2_k>0.5$,然后选择使得概率最大的那个.图 8.6 显示了在最大化对数概率的 EM 算法的过程.表 8.2 显示了在给定迭代次数的 EM 过程下 $\hat\pi=\sum_i\hat\gamma_i/N$ 是类别 2 中观测值比例的极大似然估计.
注意到实际中概率的最大值发生在当我们固定一个数据点,换句话说,对于一些 $i$ 令 $\hat\mu_1=y_i$,$\hat\sigma^2_1=0$.这给出了无限大的概率,但是这不是一个有用的解.

!!! note "weiya 注:无界的似然函数"
另见 [Convergence of EM for Mixture of Gaussians](https://stats.stackexchange.com/a/153256/)

因此实际上我们寻找概率的一个良好的局部最大值,满足 $\hat\sigma^2_1,\hat\sigma^2_2>0$.进一步,可以有多个局部最大值满足$\hat\sigma^2_1,\hat\sigma^2_2>0$.在我们例子中,我们用一系列不同的初始参数值来运行 EM 算法,所有的都满足 $\hat\sigma^2_k>0.5$,然后选择使得概率最大的那个.图 8.6 显示了在最大化对数概率的 EM 算法的过程.表 8.2 显示了在给定迭代次数的 EM 过程下 $\hat\pi=\sum_i\hat\gamma_i/N$ 是类别 2 中观测值比例的极大似然估计.

![](../img/08/alg8.1.png)

Expand Down

0 comments on commit e8493d9

Please sign in to comment.