Skip to content

Commit

Permalink
Merge pull request km1994#8 from yanggg12/dev
Browse files Browse the repository at this point in the history
修改错别字,调整格式
  • Loading branch information
km1994 authored Dec 15, 2021
2 parents 70fceb1 + 2a5960d commit c79c289
Show file tree
Hide file tree
Showing 2 changed files with 5 additions and 4 deletions.
7 changes: 4 additions & 3 deletions BasicAlgorithm/归一化.md
Original file line number Diff line number Diff line change
Expand Up @@ -6,11 +6,12 @@

### 1.1 为什么要归一化?

因为 每一列 数据的量纲不同,导致 数据分布区间存在差异。(人的身高可以是 180cm,也可以是 1.8m,这两个虽然表示意义相同,但是由于单位的不同,导致 机器学习在计算过程中也容易出现差异,所以就需要对数据进行归一化)。
因为 每一列 数据的量纲不同,导致 数据分布区间存在差异。
举例:(人的身高可以是 180cm,也可以是 1.8m,这两个虽然表示意义相同,但是由于单位的不同,导致 机器学习在计算过程中也容易出现差异,所以就需要对数据进行归一化)。

## 二、介绍篇

### 2.1 归一化 有 哪些方法
### 2.1 归一化有哪些方法

- 线性比例变换法:

Expand All @@ -24,7 +25,7 @@

![](img/20200906192249.png)

### 2.2 归一化 各方法 特点
### 2.2 归一化各方法特点

- 线性比例变换法 and 极差变换法
- 特点:将原始数据线性化的方法转换到[0 1]的范围,该方法实现对原始数据的等比例缩放。通过利用变量取值的最大值和最小值(或者最大值)将原始数据转换为界于某一特定范围的数据,从而消除量纲和数量级影响,改变变量在分析中的权重来解决不同度量的问题。由于极值化方法在对变量无量纲化过程中仅仅与该变量的最大值和最小值这两个极端值有关,而与其他取值无关,这使得该方法在改变各变量权重时过分依赖两个极端取值。
Expand Down
2 changes: 1 addition & 1 deletion MachineLearningAlgorithm/集成学习.md
Original file line number Diff line number Diff line change
Expand Up @@ -190,7 +190,7 @@ Stacking 应用 基于串行策略 的方式进行学习
- 基分类器:CART,其无论是处理分类还是回归均是将采用回归拟合(将分类问题通过 softmax 转换为回归问题),用当前轮 CART 树拟合前一轮目标函数与实际值的负梯度 ht = -g;
- 本质:回归算法;

> 也正是因为 GBDT 采用的 CART 树模型作为基分类器进行负梯度拟合,其是一种对特征样本空间进行划分的策略,不能使用 SGD 等梯度优化算法,而是 CART 树自身的节点分裂策略:均方差(回归) 也带来了算法上的不同; GBDT 损失函数值得是前一轮拟合模型与实际值的差异,而树节点内部分裂的特征选择则是固定为 CART 的均方差,目标损失函数可以自定义,当前轮 CART 树旨在拟合负梯度。
> 也正是因为 GBDT 采用的 CART 树模型作为基分类器进行负梯度拟合,其是一种对特征样本空间进行划分的策略,不能使用 SGD 等梯度优化算法,而是 CART 树自身的节点分裂策略:均方差(回归) 也带来了算法上的不同; GBDT 损失函数指的是前一轮拟合模型与实际值的差异,而树节点内部分裂的特征选择则是固定为 CART 的均方差,目标损失函数可以自定义,当前轮 CART 树旨在拟合负梯度。
###### 7.1.1.2.2 从 特征空间 角度

Expand Down

0 comments on commit c79c289

Please sign in to comment.