Skip to content

Commit

Permalink
proofread
Browse files Browse the repository at this point in the history
  • Loading branch information
szcf-weiya committed Dec 14, 2020
1 parent a658679 commit 1f63052
Showing 1 changed file with 2 additions and 2 deletions.
Original file line number Diff line number Diff line change
Expand Up @@ -203,7 +203,7 @@ $$
$$
\underset{a}{\max}\;a^T\mathbf Ba \; \st \; a^T\mathbf Wa=1\tag{4.16}
$$
这是一个一般化的特征值问题,$a$ 是由 $\mathbf W^{-1}\mathbf B$ 的最大特征值给出.不难证明([练习 4.1](https://github.com/szcf-weiya/ESL-CN/issues/142))最优 $a_1$ 等于上面定义的 $v_1$.类似地,可以找到下一个方向 $a_2$,在 $W$ 中与 $a_1$ 正交,使得 $a_2^TBa_2/a_2^TWa_2$ 最大化;解为 $a_2=v_2$,其余类似.$a_\ell$ 被称作 **判别坐标 (discriminant coordinates)**不会与判别函数相混淆.他们也被称作 **典则变量 (canonical variables)**,因为这些结果的一个变形是通过在预测变量矩阵 $X$ 上对指示响应矩阵 $Y$ 进行典则相关分析得到的.这一点将在 [12.5 节](../12-Support-Vector-Machines-and-Flexible-Discriminants/12.5-Flexible-Disciminant-Analysis/index.html)继续讨论.
这是一个一般化的特征值问题,$a$ 是由 $\mathbf W^{-1}\mathbf B$ 的最大特征值给出.不难证明([练习 4.1](https://github.com/szcf-weiya/ESL-CN/issues/142))最优 $a_1$ 等于上面定义的 $v_1$.类似地,可以找到下一个方向 $a_2$,在 $\mathbf W$ 中与 $a_1$ 正交,使得 $a_2^T{\mathbf B}a_2/a_2^T{\mathbf W}a_2$ 最大化;解为 $a_2=v_2$,其余类似.$a_\ell$ 被称作 **判别坐标 (discriminant coordinates)**不要与判别函数相混淆.他们也被称作 **典则变量 (canonical variables)**,因为这些结果的一个变形是通过在预测变量矩阵 $\mathbf X$ 上对指示响应矩阵 $\mathbf Y$ 进行典则相关分析得到的.这一点将在 [12.5 节](../12-Support-Vector-Machines-and-Flexible-Discriminants/12.5-Flexible-Disciminant-Analysis/index.html)继续讨论.

!!! info "weiya 注:Ex. 4.1"
已解决,详见 [Issue 142: Ex. 4.1](https://github.com/szcf-weiya/ESL-CN/issues/142)
Expand All @@ -224,7 +224,7 @@ $$

> 图 4.10. 对于元音数据,训练和测试误差作为判别边界的维数的函数的图象.这种情况下最优的误差率是维数等于 2 的情况.图 4.11 显示了这个空间的判别边界.
Fisher **降秩判别分析 (RDA)** 和指示响应矩阵回归之间存在着紧密的联系.事实表明 LDA 意味着 $\hat{\mathbf Y}^T\mathbf Y$ 的特征值分解后进行回归.在两个类的情形下,存在一个单判别变量,乘上一个标量后能与 $\hat{\mathbf Y}$ 的某一列相等.这些联系将在[第 12 章](../12-Support-Vector-Machines-and-Flexible-Discriminants/12.1-Introduction/index.html)中讨论.一个相关的事实是先将原始的预测变量 $\mathbf X$ 转换为 $\hat{\mathbf Y}$,然后用 $\hat{\mathbf Y}$ 做 LDA 与在原空间中做 LDA 是相同的([练习 4.3](https://github.com/szcf-weiya/ESL-CN/issues/144)).
Fisher **降秩判别分析 (RDA)** 和指示响应矩阵回归之间存在着紧密的联系.事实表明 LDA 意味着先回归然后对 $\hat{\mathbf Y}^T\mathbf Y$ 做特征值分解.在两个类的情形下,对于 $\hat{\mathbf Y}$ 的任一列,都存在一个单判别变量,乘上一个标量后能与该列相等.这些联系将在[第 12 章](../12-Support-Vector-Machines-and-Flexible-Discriminants/12.1-Introduction/index.html)中讨论.一个相关的事实是先将原始的预测变量 $\mathbf X$ 转换为 $\hat{\mathbf Y}$,然后用 $\hat{\mathbf Y}$ 做 LDA 与在原空间中做 LDA 是相同的([练习 4.3](https://github.com/szcf-weiya/ESL-CN/issues/144)).

![](../img/04/fig4.11.png)

Expand Down

0 comments on commit 1f63052

Please sign in to comment.