Skip to content

Commit 17a1455

Browse files
committed
1.2.0
1 parent 14a8738 commit 17a1455

File tree

5 files changed

+8
-9
lines changed

5 files changed

+8
-9
lines changed

build/env.yml

+1-1
Original file line numberDiff line numberDiff line change
@@ -10,7 +10,7 @@ dependencies:
1010
- nbsphinx==0.3.5
1111
- recommonmark==0.4.0
1212
- https://github.com/mli/notedown/tarball/master
13-
- mxnet-cu92==1.2.1
13+
- mxnet-cu92==1.2.0
1414
- gluonbook==0.8.5
1515
- jieba==0.39
1616
- awscli

chapter_appendix/aws.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -147,7 +147,7 @@ source activate gluon
147147

148148
```
149149
pip uninstall mxnet
150-
pip install mxnet-cu90==1.2.1 # 1.2.1是本书代码依赖的版本号
150+
pip install mxnet-cu90==1.2.0 # 指定本书代码依赖的版本号
151151
```
152152

153153
## 运行Jupyter记事本

chapter_deep-learning-computation/read-write.md

+4-5
Original file line numberDiff line numberDiff line change
@@ -42,7 +42,7 @@ mydict2
4242

4343
## 读写Gluon模型的参数
4444

45-
除了NDArray以外,我们还可以读写Gluon模型的参数。Gluon的Block类提供了`save_parameters``load_parameters`函数来读写模型参数。为了演示方便,我们先创建一个多层感知机,并将其初始化。回忆[“模型参数的延后初始化”](deferred-init.md)一节,由于延后初始化,我们需要先运行一次前向计算才能实际初始化模型参数。
45+
除了NDArray以外,我们还可以读写Gluon模型的参数。Gluon的Block类提供了`save_params``load_params`函数来读写模型参数(较新版本的MXNet,如1.2.1版,则使用`save_parameters``load_parameters`函数)。为了演示方便,我们先创建一个多层感知机,并将其初始化。回忆[“模型参数的延后初始化”](deferred-init.md)一节,由于延后初始化,我们需要先运行一次前向计算才能实际初始化模型参数。
4646

4747
```{.python .input n=6}
4848
class MLP(nn.Block):
@@ -64,14 +64,14 @@ y = net(x)
6464

6565
```{.python .input}
6666
filename = 'mlp.params'
67-
net.save_parameters(filename)
67+
net.save_params(filename)
6868
```
6969

7070
接下来,我们再实例化一次定义好的多层感知机。跟随机初始化模型参数不同,我们在这里直接读取保存在文件里的参数。
7171

7272
```{.python .input n=8}
7373
net2 = MLP()
74-
net2.load_parameters(filename)
74+
net2.load_params(filename)
7575
```
7676

7777
因为这两个实例都有同样的模型参数,那么对同一个输入`x`的计算结果将会是一样。我们来验证一下。
@@ -83,8 +83,7 @@ y2 == y
8383

8484
## 小结
8585

86-
* 通过`save``load`函数可以很方便地读写NDArray。
87-
* 通过`load_parameters``save_parameters`函数可以很方便地读写Gluon模型的参数。
86+
* 我们可以很方便地读写NDArray和Gluon模型的参数。
8887

8988
## 练习
9089

chapter_introduction/how-to-use.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -28,7 +28,7 @@
2828

2929
本书的一大特点是每一节的代码都是可以运行的。你可以改动代码后重新运行,并通过运行结果进一步理解改动所带来的影响。我们认为这种交互式的学习体验对于学习深度学习非常重要。因为深度学习目前并没有很好的理论解释框架,很多论断只可意会。文字解释在这时候可能比较苍白无力,而且不足以覆盖所有细节。你需要通过不断改动代码、观察运行结果并进行经验总结,逐步领悟和掌握深度学习。
3030

31-
本书的代码基于Apache MXNet实现。MXNet是一个开源的深度学习框架。它是AWS(亚马逊云计算服务)首选的深度学习框架,也被众多学校和公司使用。本书所有代码已在MXNet 1.2.1下测试通过。但由于深度学习发展极为迅速,未来版本的MXNet可能会造成书中部分代码无法正常运行。遇到类似问题可参考[“获取和运行本书代码”](../chapter_prerequisite/install.md)一节来更新代码和运行环境。此外,为避免重复描述,我们将本书中多次使用的函数和类封装在版本号为1.0.0的`gluonbook`包中。这些函数和类的定义所在章节已在附录[“gluonbook包索引”](../chapter_appendix/gluonbook.md)里列出。
31+
本书的代码基于Apache MXNet实现。MXNet是一个开源的深度学习框架。它是AWS(亚马逊云计算服务)首选的深度学习框架,也被众多学校和公司使用。本书所有代码已在MXNet 1.2.0下测试通过。但由于深度学习发展极为迅速,未来版本的MXNet可能会造成书中部分代码无法正常运行。遇到类似问题可参考[“获取和运行本书代码”](../chapter_prerequisite/install.md)一节来更新代码和运行环境。此外,为避免重复描述,我们将本书中多次使用的函数和类封装在版本号为1.0.0的`gluonbook`包中。这些函数和类的定义所在章节已在附录[“gluonbook包索引”](../chapter_appendix/gluonbook.md)里列出。
3232

3333
本书可以作为MXNet入门教程使用。但我们提供代码的主要目的在于增加一个在文字、图像和公式外的学习深度学习算法的方式,以及一个便于理解各算法在真实数据上实际效果的交互式环境。书中只使用了MXNet的`ndarray``autograd``gluon`等模块的基础功能,使你尽可能了解深度学习算法的实现细节。即便你在研究和工作中使用了其他深度学习框架,书中的代码也能帮助你更好地理解深度学习算法。
3434

environment.yml

+1-1
Original file line numberDiff line numberDiff line change
@@ -6,5 +6,5 @@ dependencies:
66
- pandas=0.23.2
77
- pip:
88
- requests==2.18.4
9-
- mxnet==1.2.1
9+
- mxnet==1.2.0
1010
- gluonbook==0.8.5

0 commit comments

Comments
 (0)