Skip to content

Commit

Permalink
mathjax local
Browse files Browse the repository at this point in the history
  • Loading branch information
szcf-weiya committed Dec 6, 2016
1 parent 4161984 commit 72cf39a
Show file tree
Hide file tree
Showing 67 changed files with 8,405 additions and 8,594 deletions.
12 changes: 6 additions & 6 deletions .gitignore
Original file line number Diff line number Diff line change
@@ -1,6 +1,6 @@
*/._.*
*.DS_Store
site
/build
*.data
**/.Archive
*/._.*
*.DS_Store
site
/build
*.data
**/.Archive
42 changes: 21 additions & 21 deletions .travis.yml
Original file line number Diff line number Diff line change
@@ -1,22 +1,22 @@
language: python

python:
- 3.4

install:
- pip install mkdocs
- python setup.py install

script:
- mkdocs build --clean

after_success: |
if [ -n "$GITHUB_API_KEY" ]; then
cd "$TRAVIS_BUILD_DIR"
cd site
git init
git add .
git -c user.name=$GITHUB_MEOWJ_NAME -c user.email=$GITHUB_MEOWJ_EMAIL commit -m "Auto Deployment"
git push -f -q https://Meow-J:[email protected]/LearnOpenGL-CN/learnopengl-cn.github.io master
cd "$TRAVIS_BUILD_DIR"
language: python

python:
- 3.4

install:
- pip install mkdocs
- python setup.py install

script:
- mkdocs build --clean

after_success: |
if [ -n "$GITHUB_API_KEY" ]; then
cd "$TRAVIS_BUILD_DIR"
cd site
git init
git add .
git -c user.name=$GITHUB_MEOWJ_NAME -c user.email=$GITHUB_MEOWJ_EMAIL commit -m "Auto Deployment"
git push -f -q https://Meow-J:[email protected]/LearnOpenGL-CN/learnopengl-cn.github.io master
cd "$TRAVIS_BUILD_DIR"
fi
238 changes: 119 additions & 119 deletions docs/01 Introduction/2016-07-26-Chapter-1-Introduction.md

Large diffs are not rendered by default.

20 changes: 10 additions & 10 deletions docs/02 Overview of Supervised Learning/2.1 Introduction.md
Original file line number Diff line number Diff line change
@@ -1,10 +1,10 @@
# 导言

原文 | [The Elements of Statistical Learning](../book/The Elements of Statistical Learning.pdf)
---|---
翻译 | szcf-weiya
时间 | 2016-08-01

第一章中描述的三个例子有一些共同的组成部分。每个例子中都有一些变量,这些变量可以记作输入(*inputs*),可以是测量得到或者预设。这些变量对一个或多个输出(*outputs*)有影响。每个例子的目标便是利用输入去预测输出的值。这样的过程称之为监督学习(*supervised learning*)。

我们已经使用了更现代的机器学习的语言。在统计学中,输入变量(*inputs*)通常称作预测变量(*predictors*),是一个与输入变量等价的说法,更经典的说法是独立变量(*independent variables*)。在模式识别中,更倾向于采用特征(*features*)的说法,我们也会采用这一说法。输出变量(*outputs*)被称作响应变量(*responses*),或者更经典的说法是因变量(*dependent variables*)。
# 导言

原文 | [The Elements of Statistical Learning](../book/The Elements of Statistical Learning.pdf)
---|---
翻译 | szcf-weiya
时间 | 2016-08-01

第一章中描述的三个例子有一些共同的组成部分。每个例子中都有一些变量,这些变量可以记作输入(*inputs*),可以是测量得到或者预设。这些变量对一个或多个输出(*outputs*)有影响。每个例子的目标便是利用输入去预测输出的值。这样的过程称之为监督学习(*supervised learning*)。

我们已经使用了更现代的机器学习的语言。在统计学中,输入变量(*inputs*)通常称作预测变量(*predictors*),是一个与输入变量等价的说法,更经典的说法是独立变量(*independent variables*)。在模式识别中,更倾向于采用特征(*features*)的说法,我们也会采用这一说法。输出变量(*outputs*)被称作响应变量(*responses*),或者更经典的说法是因变量(*dependent variables*)。
Original file line number Diff line number Diff line change
@@ -1,26 +1,26 @@
# 变量类型和术语

原文 | [The Elements of Statistical Learning](../The Elements of Statistical Learning.pdf)
---|---
翻译 | szcf-weiya
时间 | 2016-08-01

这些例子中的输出变量本质都不相同。在预测葡萄糖的例子中,输出变量是定量(*quantitative*)的测量结果,有些测量结果大于其他的,而且测量结果在数值上相近也意味着结果本质上相近。著名的R.A.Fisher分辨鸢尾花种类例子中,输出变量(鸢尾花的种类)是定性的(*qualitative*)而且假设取值为有限集合 ${\cal G}=\\{Virginica,Setosa,Versicolor\\}$ 。在手写数字的例子中,输出变量的取值是10个不同数字之一:${\cal G}=\\{0,1,...,9\\}$ 。在这些例子中分类没有明显的顺序,而且事实上经常用描述性标签而不是数字来代替这些分类。定性变量也被称为类别型(*categories*)或者离散(*discrete*)型变量,也被称作因子(*factors*)。

对于两种类型的输出变量,考虑使用输入变量去预测输出变量是有意义的。给定今天和昨天特定的大气测量结果,我们想要预测明天的臭氧层。给定手写数字的数字化图片中像素的灰度值,我们想要预测该图片是属于哪一个类。

输出类型的差别导致对预测的命名规定:当我们预测定量的输出时被称为回归(*regression*),当我们预测定性的输出时被称为分类(*classification*)。我们将会看到这两个任务有很多的共同点,特别地,两者都可以看成是函数逼近。

输入变量也有各种各样的测量类型;我们可以有定性的输入变量和定量的输入变量两者中的一些变量。这些也导致了预测中方法类型的不同:一些方法更自然地定义为定量的输入变量,一些方法更自然地定义为定性的输入变量,还有一些是两者都可以的。

第三种变量类型是有序分类(*ordered categorical*),如小(*small*)、中(*medium*)和大(*large*),在这些值之间存在顺序,但是没有合适的度量的概念(中与小之间的差异不必和大于中间的差异相等)。这将在第四章中讨论。

定性的变量常用数字编码来表示。最简单的情形是只有两个分类,比如说“成功”与“失败”,“生存”与“死亡”。这些经常用一位二进制数来表示,比如0或1,或者用-1和1来表示。因为一些显然的原因,这些数字编码有时被称作指标(*targets*)。当存在超过两个的类别,一些其他的选择是可行的。最有用并且最普遍使用的编码是虚拟变量(*dummy variables*)。这里有$K$个水平的定性变量被一个$K$位的二进制变量表示,每次只有一个在开启状态。尽管更简洁的编码模式也是可能的,虚拟变量在因子的层次中是对称的。

我们将经常把输入变量用符号 $X$ 来表示。如果$X$是一个向量,则它的组成部分可以用下标$X_j$来取出。定量的输出变量用$Y$来表示,对于定性的输出变量采用$G$来表示(group的意思)。当指一般的变量,我们使用大写字母$X,Y,G$来表示,对于观测值我们用小写字母来表示;因此$X$的第$i$个观测值记作 $x_i$ (其中,$x_i$要么是标量要么是向量)矩阵经常用粗体的大写字母来表示;举个例子,$N$个$p$维输入向量$x_i,i=1,\cdots,N$可以表示成$N\times p$的矩阵 $\mathbf{X}$ 。一般地,向量不是粗体,除非它们有 $N$ 个组成成分;这个约定区分了包含变量$X_j$的所有观测值的$N$维向量 $\mathbf{x}_j$ 和第 $i$ 个观测值的 $p$ 维向量 $x_i$ 。因为所有的向量都假定为列向量, $\mathbf{X}$ 的第 $i$ 行是 $x_i$ 的转置 $x_i^T$ 。

现在我们可以不严谨地把学习叙述成如下:给定输入向量$X$,对输出$Y$做出一个很好的估计,记为 $\hat{Y}$ 。如果$Y$取值为$\mathbf{R}$,则 $\hat{Y}$ 取值也是 $\mathbf{R}$ ;同样地,对于类别型输出,$\hat{G}$ 取值为对应 $G$ 取值的集合 $\cal{G}$。

对于只有两种类别的$G$,一种方式是把二进制编码记为$Y$,然后把它看成是定量的输出变量。预测值 $\hat{Y}$ 一般落在 $[0,1]$ 之间,而且我们可以根据 $\hat{y} > 0.5$ 来赋值给 $\hat{G}$ 。这种方式可以一般化为有 $K$ 个水平的定性的输出变量。

我们需要数据去构建预测规则,经常是大部分的数据。因此我们假设有一系列可用的测量值 $(x_i,y_i)$ 或 $(x_i,g_i),i=1,\cdots,N$ ,这也称之为训练数据(*training data*),将利用这些训练数据去构建我们的预测规则。
# 变量类型和术语

原文 | [The Elements of Statistical Learning](../The Elements of Statistical Learning.pdf)
---|---
翻译 | szcf-weiya
时间 | 2016-08-01

这些例子中的输出变量本质都不相同。在预测葡萄糖的例子中,输出变量是定量(*quantitative*)的测量结果,有些测量结果大于其他的,而且测量结果在数值上相近也意味着结果本质上相近。著名的R.A.Fisher分辨鸢尾花种类例子中,输出变量(鸢尾花的种类)是定性的(*qualitative*)而且假设取值为有限集合 ${\cal G}=\\{Virginica,Setosa,Versicolor\\}$ 。在手写数字的例子中,输出变量的取值是10个不同数字之一:${\cal G}=\\{0,1,...,9\\}$ 。在这些例子中分类没有明显的顺序,而且事实上经常用描述性标签而不是数字来代替这些分类。定性变量也被称为类别型(*categories*)或者离散(*discrete*)型变量,也被称作因子(*factors*)。

对于两种类型的输出变量,考虑使用输入变量去预测输出变量是有意义的。给定今天和昨天特定的大气测量结果,我们想要预测明天的臭氧层。给定手写数字的数字化图片中像素的灰度值,我们想要预测该图片是属于哪一个类。

输出类型的差别导致对预测的命名规定:当我们预测定量的输出时被称为回归(*regression*),当我们预测定性的输出时被称为分类(*classification*)。我们将会看到这两个任务有很多的共同点,特别地,两者都可以看成是函数逼近。

输入变量也有各种各样的测量类型;我们可以有定性的输入变量和定量的输入变量两者中的一些变量。这些也导致了预测中方法类型的不同:一些方法更自然地定义为定量的输入变量,一些方法更自然地定义为定性的输入变量,还有一些是两者都可以的。

第三种变量类型是有序分类(*ordered categorical*),如小(*small*)、中(*medium*)和大(*large*),在这些值之间存在顺序,但是没有合适的度量的概念(中与小之间的差异不必和大于中间的差异相等)。这将在第四章中讨论。

定性的变量常用数字编码来表示。最简单的情形是只有两个分类,比如说“成功”与“失败”,“生存”与“死亡”。这些经常用一位二进制数来表示,比如0或1,或者用-1和1来表示。因为一些显然的原因,这些数字编码有时被称作指标(*targets*)。当存在超过两个的类别,一些其他的选择是可行的。最有用并且最普遍使用的编码是虚拟变量(*dummy variables*)。这里有$K$个水平的定性变量被一个$K$位的二进制变量表示,每次只有一个在开启状态。尽管更简洁的编码模式也是可能的,虚拟变量在因子的层次中是对称的。

我们将经常把输入变量用符号 $X$ 来表示。如果$X$是一个向量,则它的组成部分可以用下标$X_j$来取出。定量的输出变量用$Y$来表示,对于定性的输出变量采用$G$来表示(group的意思)。当指一般的变量,我们使用大写字母$X,Y,G$来表示,对于观测值我们用小写字母来表示;因此$X$的第$i$个观测值记作 $x_i$ (其中,$x_i$要么是标量要么是向量)矩阵经常用粗体的大写字母来表示;举个例子,$N$个$p$维输入向量$x_i,i=1,\cdots,N$可以表示成$N\times p$的矩阵 $\mathbf{X}$ 。一般地,向量不是粗体,除非它们有 $N$ 个组成成分;这个约定区分了包含变量$X_j$的所有观测值的$N$维向量 $\mathbf{x}_j$ 和第 $i$ 个观测值的 $p$ 维向量 $x_i$ 。因为所有的向量都假定为列向量, $\mathbf{X}$ 的第 $i$ 行是 $x_i$ 的转置 $x_i^T$ 。

现在我们可以不严谨地把学习叙述成如下:给定输入向量$X$,对输出$Y$做出一个很好的估计,记为 $\hat{Y}$ 。如果$Y$取值为$\mathbf{R}$,则 $\hat{Y}$ 取值也是 $\mathbf{R}$ ;同样地,对于类别型输出,$\hat{G}$ 取值为对应 $G$ 取值的集合 $\cal{G}$。

对于只有两种类别的$G$,一种方式是把二进制编码记为$Y$,然后把它看成是定量的输出变量。预测值 $\hat{Y}$ 一般落在 $[0,1]$ 之间,而且我们可以根据 $\hat{y} > 0.5$ 来赋值给 $\hat{G}$ 。这种方式可以一般化为有 $K$ 个水平的定性的输出变量。

我们需要数据去构建预测规则,经常是大部分的数据。因此我们假设有一系列可用的测量值 $(x_i,y_i)$ 或 $(x_i,g_i),i=1,\cdots,N$ ,这也称之为训练数据(*training data*),将利用这些训练数据去构建我们的预测规则。
Loading

0 comments on commit 72cf39a

Please sign in to comment.