forked from szcf-weiya/ESL-CN
-
Notifications
You must be signed in to change notification settings - Fork 0
Commit
This commit does not belong to any branch on this repository, and may belong to a fork outside of the repository.
- Loading branch information
1 parent
4161984
commit 72cf39a
Showing
67 changed files
with
8,405 additions
and
8,594 deletions.
There are no files selected for viewing
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -1,6 +1,6 @@ | ||
*/._.* | ||
*.DS_Store | ||
site | ||
/build | ||
*.data | ||
**/.Archive | ||
*/._.* | ||
*.DS_Store | ||
site | ||
/build | ||
*.data | ||
**/.Archive |
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -1,22 +1,22 @@ | ||
language: python | ||
|
||
python: | ||
- 3.4 | ||
|
||
install: | ||
- pip install mkdocs | ||
- python setup.py install | ||
|
||
script: | ||
- mkdocs build --clean | ||
|
||
after_success: | | ||
if [ -n "$GITHUB_API_KEY" ]; then | ||
cd "$TRAVIS_BUILD_DIR" | ||
cd site | ||
git init | ||
git add . | ||
git -c user.name=$GITHUB_MEOWJ_NAME -c user.email=$GITHUB_MEOWJ_EMAIL commit -m "Auto Deployment" | ||
git push -f -q https://Meow-J:[email protected]/LearnOpenGL-CN/learnopengl-cn.github.io master | ||
cd "$TRAVIS_BUILD_DIR" | ||
language: python | ||
|
||
python: | ||
- 3.4 | ||
|
||
install: | ||
- pip install mkdocs | ||
- python setup.py install | ||
|
||
script: | ||
- mkdocs build --clean | ||
|
||
after_success: | | ||
if [ -n "$GITHUB_API_KEY" ]; then | ||
cd "$TRAVIS_BUILD_DIR" | ||
cd site | ||
git init | ||
git add . | ||
git -c user.name=$GITHUB_MEOWJ_NAME -c user.email=$GITHUB_MEOWJ_EMAIL commit -m "Auto Deployment" | ||
git push -f -q https://Meow-J:[email protected]/LearnOpenGL-CN/learnopengl-cn.github.io master | ||
cd "$TRAVIS_BUILD_DIR" | ||
fi |
238 changes: 119 additions & 119 deletions
238
docs/01 Introduction/2016-07-26-Chapter-1-Introduction.md
Large diffs are not rendered by default.
Oops, something went wrong.
20 changes: 10 additions & 10 deletions
20
docs/02 Overview of Supervised Learning/2.1 Introduction.md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -1,10 +1,10 @@ | ||
# 导言 | ||
|
||
原文 | [The Elements of Statistical Learning](../book/The Elements of Statistical Learning.pdf) | ||
---|--- | ||
翻译 | szcf-weiya | ||
时间 | 2016-08-01 | ||
|
||
第一章中描述的三个例子有一些共同的组成部分。每个例子中都有一些变量,这些变量可以记作输入(*inputs*),可以是测量得到或者预设。这些变量对一个或多个输出(*outputs*)有影响。每个例子的目标便是利用输入去预测输出的值。这样的过程称之为监督学习(*supervised learning*)。 | ||
|
||
我们已经使用了更现代的机器学习的语言。在统计学中,输入变量(*inputs*)通常称作预测变量(*predictors*),是一个与输入变量等价的说法,更经典的说法是独立变量(*independent variables*)。在模式识别中,更倾向于采用特征(*features*)的说法,我们也会采用这一说法。输出变量(*outputs*)被称作响应变量(*responses*),或者更经典的说法是因变量(*dependent variables*)。 | ||
# 导言 | ||
|
||
原文 | [The Elements of Statistical Learning](../book/The Elements of Statistical Learning.pdf) | ||
---|--- | ||
翻译 | szcf-weiya | ||
时间 | 2016-08-01 | ||
|
||
第一章中描述的三个例子有一些共同的组成部分。每个例子中都有一些变量,这些变量可以记作输入(*inputs*),可以是测量得到或者预设。这些变量对一个或多个输出(*outputs*)有影响。每个例子的目标便是利用输入去预测输出的值。这样的过程称之为监督学习(*supervised learning*)。 | ||
|
||
我们已经使用了更现代的机器学习的语言。在统计学中,输入变量(*inputs*)通常称作预测变量(*predictors*),是一个与输入变量等价的说法,更经典的说法是独立变量(*independent variables*)。在模式识别中,更倾向于采用特征(*features*)的说法,我们也会采用这一说法。输出变量(*outputs*)被称作响应变量(*responses*),或者更经典的说法是因变量(*dependent variables*)。 |
52 changes: 26 additions & 26 deletions
52
docs/02 Overview of Supervised Learning/2.2 Variable Types and Terminology.md
This file contains bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -1,26 +1,26 @@ | ||
# 变量类型和术语 | ||
|
||
原文 | [The Elements of Statistical Learning](../The Elements of Statistical Learning.pdf) | ||
---|--- | ||
翻译 | szcf-weiya | ||
时间 | 2016-08-01 | ||
|
||
这些例子中的输出变量本质都不相同。在预测葡萄糖的例子中,输出变量是定量(*quantitative*)的测量结果,有些测量结果大于其他的,而且测量结果在数值上相近也意味着结果本质上相近。著名的R.A.Fisher分辨鸢尾花种类例子中,输出变量(鸢尾花的种类)是定性的(*qualitative*)而且假设取值为有限集合 ${\cal G}=\\{Virginica,Setosa,Versicolor\\}$ 。在手写数字的例子中,输出变量的取值是10个不同数字之一:${\cal G}=\\{0,1,...,9\\}$ 。在这些例子中分类没有明显的顺序,而且事实上经常用描述性标签而不是数字来代替这些分类。定性变量也被称为类别型(*categories*)或者离散(*discrete*)型变量,也被称作因子(*factors*)。 | ||
|
||
对于两种类型的输出变量,考虑使用输入变量去预测输出变量是有意义的。给定今天和昨天特定的大气测量结果,我们想要预测明天的臭氧层。给定手写数字的数字化图片中像素的灰度值,我们想要预测该图片是属于哪一个类。 | ||
|
||
输出类型的差别导致对预测的命名规定:当我们预测定量的输出时被称为回归(*regression*),当我们预测定性的输出时被称为分类(*classification*)。我们将会看到这两个任务有很多的共同点,特别地,两者都可以看成是函数逼近。 | ||
|
||
输入变量也有各种各样的测量类型;我们可以有定性的输入变量和定量的输入变量两者中的一些变量。这些也导致了预测中方法类型的不同:一些方法更自然地定义为定量的输入变量,一些方法更自然地定义为定性的输入变量,还有一些是两者都可以的。 | ||
|
||
第三种变量类型是有序分类(*ordered categorical*),如小(*small*)、中(*medium*)和大(*large*),在这些值之间存在顺序,但是没有合适的度量的概念(中与小之间的差异不必和大于中间的差异相等)。这将在第四章中讨论。 | ||
|
||
定性的变量常用数字编码来表示。最简单的情形是只有两个分类,比如说“成功”与“失败”,“生存”与“死亡”。这些经常用一位二进制数来表示,比如0或1,或者用-1和1来表示。因为一些显然的原因,这些数字编码有时被称作指标(*targets*)。当存在超过两个的类别,一些其他的选择是可行的。最有用并且最普遍使用的编码是虚拟变量(*dummy variables*)。这里有$K$个水平的定性变量被一个$K$位的二进制变量表示,每次只有一个在开启状态。尽管更简洁的编码模式也是可能的,虚拟变量在因子的层次中是对称的。 | ||
|
||
我们将经常把输入变量用符号 $X$ 来表示。如果$X$是一个向量,则它的组成部分可以用下标$X_j$来取出。定量的输出变量用$Y$来表示,对于定性的输出变量采用$G$来表示(group的意思)。当指一般的变量,我们使用大写字母$X,Y,G$来表示,对于观测值我们用小写字母来表示;因此$X$的第$i$个观测值记作 $x_i$ (其中,$x_i$要么是标量要么是向量)矩阵经常用粗体的大写字母来表示;举个例子,$N$个$p$维输入向量$x_i,i=1,\cdots,N$可以表示成$N\times p$的矩阵 $\mathbf{X}$ 。一般地,向量不是粗体,除非它们有 $N$ 个组成成分;这个约定区分了包含变量$X_j$的所有观测值的$N$维向量 $\mathbf{x}_j$ 和第 $i$ 个观测值的 $p$ 维向量 $x_i$ 。因为所有的向量都假定为列向量, $\mathbf{X}$ 的第 $i$ 行是 $x_i$ 的转置 $x_i^T$ 。 | ||
|
||
现在我们可以不严谨地把学习叙述成如下:给定输入向量$X$,对输出$Y$做出一个很好的估计,记为 $\hat{Y}$ 。如果$Y$取值为$\mathbf{R}$,则 $\hat{Y}$ 取值也是 $\mathbf{R}$ ;同样地,对于类别型输出,$\hat{G}$ 取值为对应 $G$ 取值的集合 $\cal{G}$。 | ||
|
||
对于只有两种类别的$G$,一种方式是把二进制编码记为$Y$,然后把它看成是定量的输出变量。预测值 $\hat{Y}$ 一般落在 $[0,1]$ 之间,而且我们可以根据 $\hat{y} > 0.5$ 来赋值给 $\hat{G}$ 。这种方式可以一般化为有 $K$ 个水平的定性的输出变量。 | ||
|
||
我们需要数据去构建预测规则,经常是大部分的数据。因此我们假设有一系列可用的测量值 $(x_i,y_i)$ 或 $(x_i,g_i),i=1,\cdots,N$ ,这也称之为训练数据(*training data*),将利用这些训练数据去构建我们的预测规则。 | ||
# 变量类型和术语 | ||
|
||
原文 | [The Elements of Statistical Learning](../The Elements of Statistical Learning.pdf) | ||
---|--- | ||
翻译 | szcf-weiya | ||
时间 | 2016-08-01 | ||
|
||
这些例子中的输出变量本质都不相同。在预测葡萄糖的例子中,输出变量是定量(*quantitative*)的测量结果,有些测量结果大于其他的,而且测量结果在数值上相近也意味着结果本质上相近。著名的R.A.Fisher分辨鸢尾花种类例子中,输出变量(鸢尾花的种类)是定性的(*qualitative*)而且假设取值为有限集合 ${\cal G}=\\{Virginica,Setosa,Versicolor\\}$ 。在手写数字的例子中,输出变量的取值是10个不同数字之一:${\cal G}=\\{0,1,...,9\\}$ 。在这些例子中分类没有明显的顺序,而且事实上经常用描述性标签而不是数字来代替这些分类。定性变量也被称为类别型(*categories*)或者离散(*discrete*)型变量,也被称作因子(*factors*)。 | ||
|
||
对于两种类型的输出变量,考虑使用输入变量去预测输出变量是有意义的。给定今天和昨天特定的大气测量结果,我们想要预测明天的臭氧层。给定手写数字的数字化图片中像素的灰度值,我们想要预测该图片是属于哪一个类。 | ||
|
||
输出类型的差别导致对预测的命名规定:当我们预测定量的输出时被称为回归(*regression*),当我们预测定性的输出时被称为分类(*classification*)。我们将会看到这两个任务有很多的共同点,特别地,两者都可以看成是函数逼近。 | ||
|
||
输入变量也有各种各样的测量类型;我们可以有定性的输入变量和定量的输入变量两者中的一些变量。这些也导致了预测中方法类型的不同:一些方法更自然地定义为定量的输入变量,一些方法更自然地定义为定性的输入变量,还有一些是两者都可以的。 | ||
|
||
第三种变量类型是有序分类(*ordered categorical*),如小(*small*)、中(*medium*)和大(*large*),在这些值之间存在顺序,但是没有合适的度量的概念(中与小之间的差异不必和大于中间的差异相等)。这将在第四章中讨论。 | ||
|
||
定性的变量常用数字编码来表示。最简单的情形是只有两个分类,比如说“成功”与“失败”,“生存”与“死亡”。这些经常用一位二进制数来表示,比如0或1,或者用-1和1来表示。因为一些显然的原因,这些数字编码有时被称作指标(*targets*)。当存在超过两个的类别,一些其他的选择是可行的。最有用并且最普遍使用的编码是虚拟变量(*dummy variables*)。这里有$K$个水平的定性变量被一个$K$位的二进制变量表示,每次只有一个在开启状态。尽管更简洁的编码模式也是可能的,虚拟变量在因子的层次中是对称的。 | ||
|
||
我们将经常把输入变量用符号 $X$ 来表示。如果$X$是一个向量,则它的组成部分可以用下标$X_j$来取出。定量的输出变量用$Y$来表示,对于定性的输出变量采用$G$来表示(group的意思)。当指一般的变量,我们使用大写字母$X,Y,G$来表示,对于观测值我们用小写字母来表示;因此$X$的第$i$个观测值记作 $x_i$ (其中,$x_i$要么是标量要么是向量)矩阵经常用粗体的大写字母来表示;举个例子,$N$个$p$维输入向量$x_i,i=1,\cdots,N$可以表示成$N\times p$的矩阵 $\mathbf{X}$ 。一般地,向量不是粗体,除非它们有 $N$ 个组成成分;这个约定区分了包含变量$X_j$的所有观测值的$N$维向量 $\mathbf{x}_j$ 和第 $i$ 个观测值的 $p$ 维向量 $x_i$ 。因为所有的向量都假定为列向量, $\mathbf{X}$ 的第 $i$ 行是 $x_i$ 的转置 $x_i^T$ 。 | ||
|
||
现在我们可以不严谨地把学习叙述成如下:给定输入向量$X$,对输出$Y$做出一个很好的估计,记为 $\hat{Y}$ 。如果$Y$取值为$\mathbf{R}$,则 $\hat{Y}$ 取值也是 $\mathbf{R}$ ;同样地,对于类别型输出,$\hat{G}$ 取值为对应 $G$ 取值的集合 $\cal{G}$。 | ||
|
||
对于只有两种类别的$G$,一种方式是把二进制编码记为$Y$,然后把它看成是定量的输出变量。预测值 $\hat{Y}$ 一般落在 $[0,1]$ 之间,而且我们可以根据 $\hat{y} > 0.5$ 来赋值给 $\hat{G}$ 。这种方式可以一般化为有 $K$ 个水平的定性的输出变量。 | ||
|
||
我们需要数据去构建预测规则,经常是大部分的数据。因此我们假设有一系列可用的测量值 $(x_i,y_i)$ 或 $(x_i,g_i),i=1,\cdots,N$ ,这也称之为训练数据(*training data*),将利用这些训练数据去构建我们的预测规则。 |
Oops, something went wrong.