Skip to content

Commit

Permalink
tutorial updated
Browse files Browse the repository at this point in the history
  • Loading branch information
matrixhaolin committed Nov 1, 2018
1 parent 1dab07c commit abcd504
Showing 1 changed file with 10 additions and 1 deletion.
11 changes: 10 additions & 1 deletion AI/从金属巨人到深度学习/README.md
Original file line number Diff line number Diff line change
Expand Up @@ -93,4 +93,13 @@ David Warde-Farley, Goodfellow et al. 2017
但是这并没有结束,深度学习还要再深入一步。在使用多个隐藏层时,我们可以组合多个简单的层来构建复杂的表示。通过一个一个的堆叠隐藏层,我们可以分辨出每一个层的变量因子。这会让我们的算法拥有用通过多个简单层的来表达高深复杂的概念的能力。


![](https://cdn-images-1.medium.com/max/800/1*lXwWR56AEUQs3pWhHeFEEg.jpeg)
![](https://cdn-images-1.medium.com/max/800/1*lXwWR56AEUQs3pWhHeFEEg.jpeg)

Zeiler and Fergus (2014)

深度学习历史悠久。这个领域的核心观点在 1960 年代就通过多层感知器被提出来了。反向传播算法在 1970 年被正式提出,1980 年代各种人工神经网络也开始陆续登场。但是这些早期的成果又经历了几十年才在实践中得以运用。没有差的算法(有些人并不这样认为),只是我们还没有意识到需要多大的数据量才能让它们变的有用。

越小的数据样本越容易产生极端的结果(因为在统计噪音上会有更大的影响)。越大的数据样本则会减弱噪音的影响并让深度学习模型更精确的知道哪些因子可以最好的描述输入。

在 21 世纪初期深度学习取得如此成就一点也不意外,而几乎同时,大部分科技公司也都发现了它们正坐在一座座未被开发的数据的金山上。

0 comments on commit abcd504

Please sign in to comment.