Skip to content

Commit

Permalink
add main page
Browse files Browse the repository at this point in the history
  • Loading branch information
szcf-weiya committed Sep 30, 2016
1 parent fef8201 commit 0f6d277
Show file tree
Hide file tree
Showing 5 changed files with 45 additions and 110 deletions.
2 changes: 1 addition & 1 deletion .gitignore
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
*/._.*
*.DS_Store
/site
/site/*
/build
*.data
**/.Archive
2 changes: 1 addition & 1 deletion mkdocs.yml
Original file line number Diff line number Diff line change
Expand Up @@ -29,7 +29,7 @@ site_description: 'The Elements of Statistical Learning(ESL) 的中文翻译'

site_url: https://szcf-weiya.github.io/ESL-CN/

repo_url: https://szcf-weiya.github.io/ESL-CN/
repo_url: https://szcf-weiya.github.io

markdown_extensions:
- admonition
Expand Down
Original file line number Diff line number Diff line change
Expand Up @@ -280,13 +280,15 @@ <h1 id="_1">线性回归模型和最小二乘法</h1>
f(X)=\beta_0+\sum\limits_{j=1}^pX_j\beta_j \qquad (3.1)
</script>
</p>
<p>线性模型要么假设回归函数$E(Y\mid X)$是线性的,要么假设线性模型是一个合理的近似。这里$\beta_j$是位置的参数或系数,变量$X_j$可以有下列不同的来源:
- 定量的输入
- 定量输入的变换,比如对数,平方根或者平方
- 基函数展开,比如$X_2=X_1^2,X_3=X_1^3$,得到多项式表示
- 定性输入变量水平的数值或“虚拟”编码。举个例子,如果$G$是5个水平的因子输入,我们可能构造$X_j,j=1,\ldots,5$使得$X_j=I(G=j)$。借助于一系列独立于水平的常数,整个$X_j$用来表示$G$的效应。因为在$\sum_{j=1}^5X_j\beta_j$中,其中一个$X_j$的系数为1,其它的都是0。
- 变量之间的相交,举个例子,$X_3=X_1\cdot X_2$
无论$X_j$是哪个来源,用参数表示的模型是线性的。</p>
<p>线性模型要么假设回归函数$E(Y\mid X)$是线性的,要么假设线性模型是一个合理的近似。这里$\beta_j$是位置的参数或系数,变量$X_j$可以有下列不同的来源:</p>
<ul>
<li>定量的输入</li>
<li>定量输入的变换,比如对数,平方根或者平方</li>
<li>基函数展开,比如$X_2=X_1^2,X_3=X_1^3$,得到多项式表示</li>
<li>定性输入变量水平的数值或“虚拟”编码。举个例子,如果$G$是5个水平的因子输入,我们可能构造$X_j,j=1,\ldots,5$使得$X_j=I(G=j)$。借助于一系列独立于水平的常数,整个$X_j$用来表示$G$的效应。因为在$\sum_{j=1}^5X_j\beta_j$中,其中一个$X_j$的系数为1,其它的都是0。</li>
<li>变量之间的相交,举个例子,$X_3=X_1\cdot X_2$
无论$X_j$是哪个来源,用参数表示的模型是线性的。</li>
</ul>
<p>一般地,我们有一系列用来估计参数$\beta$的训练数据$(x_1,y_1),\ldots,(x_N,y_N)$。每个$x_i=(x_{i1},x_{i2},\ldots,x_{ip})^T$是第$i$种情形的特征衡量的向量。最受欢迎的估计方法是最小二乘(<em>least squares</em>),我们选择参数$\beta=(\beta_0,\beta_1,\ldots,\beta_p)^T$使残差平方和最小
<script type="math/tex; mode=display">
\begin{align}
Expand All @@ -296,8 +298,8 @@ <h1 id="_1">线性回归模型和最小二乘法</h1>
</script>
</p>
<p>从统计学的观点来看,如果训练观测值$(x_i,y_i)$为从总体独立随机抽取的则该标准是合理的。即使$x_i$&rsquo;s不是随机选取的,如果在给定输入$x_i$的条件下$y_i$条件独立。图3.1图示了在充满实数对$(X,Y)$的$R^{p+1}$维空间的最小二乘拟合的几何意义。注意到(3.2)对模型(3.1)的有效性没有作假设,根据数据可以简单地找到最好的线性拟合。无论数据是怎样产生的,最小二乘拟合直观上看是满意的,这个准则衡量了拟合误差的平均。</p>
<p><img alt="" src="../../img/03/fig3.1.png" />
图3.1 $X\in R^2$中的最小二乘拟合。我们寻找关于$X$并且使$Y$的残差最小的线性函数。</p>
<p><img alt="" src="../../img/03/fig3.1.png" /></p>
<p>图3.1 $X\in R^2$中的最小二乘拟合。我们寻找关于$X$并且使$Y$的残差最小的线性函数。</p>
<p>我们怎样最小化(3.2)?记$\mathbf{X}$为$N\times (p+1)$的矩阵,矩阵每一行为一个输入向量(在第一个位置为1),类似地令$\mathbf{y}$为训练集里的$N$个输出向量。然后我们可以将残差平方和写成如下形式
<script type="math/tex; mode=display">
RSS(\beta)=(\mathbf{y}-\mathbf{X}\beta)^T(\mathbf{y}-\mathbf{X}\beta)\qquad (3.3)
Expand All @@ -322,8 +324,8 @@ <h1 id="_1">线性回归模型和最小二乘法</h1>
\hat{\beta}=(\mathbf{X}^T\mathbf{X})^{-1}\mathbf{X}^T\mathbf{y}\qquad (3.6)
</script>
</p>
<p><img alt="" src="../../img/03/fig3.2.png" />
图3.2 含两个预测的最小二乘回归的$N$维几何图形。输出向量$\mathbf{y}$正交投影在输入向量$\mathbf{x}_1$和$\mathbf{x}_2$张成的超空间中。投影向量$\hat{\mathbf{y}}$表示最小二乘法的预测值</p>
<p><img alt="" src="../../img/03/fig3.2.png" /></p>
<p>图3.2 含两个预测的最小二乘回归的$N$维几何图形。输出向量$\mathbf{y}$正交投影在输入向量$\mathbf{x}_1$和$\mathbf{x}_2$张成的超空间中。投影向量$\hat{\mathbf{y}}$表示最小二乘法的预测值</p>
<p>在输入向量$x_0$下的预测值由$\hat{f}(x_0)=(1:x_0)^T\hat{\beta}$;在训练输入下的拟合值为
<script type="math/tex; mode=display">
\hat{y}=\mathbf{X}\hat{\beta}=\mathbf{X}(\mathbf{X}^T\mathbf{X})^{-1}\mathbf{X}^T\mathbf{y}\qquad (3.7)
Expand Down
Loading

0 comments on commit 0f6d277

Please sign in to comment.