Commit 17a1455 1 parent 14a8738 commit 17a1455 Copy full SHA for 17a1455
File tree 5 files changed +8
-9
lines changed
chapter_deep-learning-computation
5 files changed +8
-9
lines changed Original file line number Diff line number Diff line change @@ -10,7 +10,7 @@ dependencies:
10
10
- nbsphinx==0.3.5
11
11
- recommonmark==0.4.0
12
12
- https://github.com/mli/notedown/tarball/master
13
- - mxnet-cu92==1.2.1
13
+ - mxnet-cu92==1.2.0
14
14
- gluonbook==0.8.5
15
15
- jieba==0.39
16
16
- awscli
Original file line number Diff line number Diff line change @@ -147,7 +147,7 @@ source activate gluon
147
147
148
148
```
149
149
pip uninstall mxnet
150
- pip install mxnet-cu90==1.2.1 # 1.2.1是本书代码依赖的版本号 。
150
+ pip install mxnet-cu90==1.2.0 # 指定本书代码依赖的版本号 。
151
151
```
152
152
153
153
## 运行Jupyter记事本
Original file line number Diff line number Diff line change @@ -42,7 +42,7 @@ mydict2
42
42
43
43
## 读写Gluon模型的参数
44
44
45
- 除了NDArray以外,我们还可以读写Gluon模型的参数。Gluon的Block类提供了` save_parameters ` 和` load_parameters ` 函数来读写模型参数 。为了演示方便,我们先创建一个多层感知机,并将其初始化。回忆[ “模型参数的延后初始化”] ( deferred-init.md ) 一节,由于延后初始化,我们需要先运行一次前向计算才能实际初始化模型参数。
45
+ 除了NDArray以外,我们还可以读写Gluon模型的参数。Gluon的Block类提供了` save_params ` 和 ` load_params ` 函数来读写模型参数(较新版本的MXNet,如1.2.1版,则使用 ` save_parameters ` 和` load_parameters ` 函数) 。为了演示方便,我们先创建一个多层感知机,并将其初始化。回忆[ “模型参数的延后初始化”] ( deferred-init.md ) 一节,由于延后初始化,我们需要先运行一次前向计算才能实际初始化模型参数。
46
46
47
47
``` {.python .input n=6}
48
48
class MLP(nn.Block):
@@ -64,14 +64,14 @@ y = net(x)
64
64
65
65
``` {.python .input}
66
66
filename = 'mlp.params'
67
- net.save_parameters (filename)
67
+ net.save_params (filename)
68
68
```
69
69
70
70
接下来,我们再实例化一次定义好的多层感知机。跟随机初始化模型参数不同,我们在这里直接读取保存在文件里的参数。
71
71
72
72
``` {.python .input n=8}
73
73
net2 = MLP()
74
- net2.load_parameters (filename)
74
+ net2.load_params (filename)
75
75
```
76
76
77
77
因为这两个实例都有同样的模型参数,那么对同一个输入` x ` 的计算结果将会是一样。我们来验证一下。
@@ -83,8 +83,7 @@ y2 == y
83
83
84
84
## 小结
85
85
86
- * 通过` save ` 和` load ` 函数可以很方便地读写NDArray。
87
- * 通过` load_parameters ` 和` save_parameters ` 函数可以很方便地读写Gluon模型的参数。
86
+ * 我们可以很方便地读写NDArray和Gluon模型的参数。
88
87
89
88
## 练习
90
89
Original file line number Diff line number Diff line change 28
28
29
29
本书的一大特点是每一节的代码都是可以运行的。你可以改动代码后重新运行,并通过运行结果进一步理解改动所带来的影响。我们认为这种交互式的学习体验对于学习深度学习非常重要。因为深度学习目前并没有很好的理论解释框架,很多论断只可意会。文字解释在这时候可能比较苍白无力,而且不足以覆盖所有细节。你需要通过不断改动代码、观察运行结果并进行经验总结,逐步领悟和掌握深度学习。
30
30
31
- 本书的代码基于Apache MXNet实现。MXNet是一个开源的深度学习框架。它是AWS(亚马逊云计算服务)首选的深度学习框架,也被众多学校和公司使用。本书所有代码已在MXNet 1.2.1下测试通过 。但由于深度学习发展极为迅速,未来版本的MXNet可能会造成书中部分代码无法正常运行。遇到类似问题可参考[ “获取和运行本书代码”] ( ../chapter_prerequisite/install.md ) 一节来更新代码和运行环境。此外,为避免重复描述,我们将本书中多次使用的函数和类封装在版本号为1.0.0的` gluonbook ` 包中。这些函数和类的定义所在章节已在附录[ “gluonbook包索引”] ( ../chapter_appendix/gluonbook.md ) 里列出。
31
+ 本书的代码基于Apache MXNet实现。MXNet是一个开源的深度学习框架。它是AWS(亚马逊云计算服务)首选的深度学习框架,也被众多学校和公司使用。本书所有代码已在MXNet 1.2.0下测试通过 。但由于深度学习发展极为迅速,未来版本的MXNet可能会造成书中部分代码无法正常运行。遇到类似问题可参考[ “获取和运行本书代码”] ( ../chapter_prerequisite/install.md ) 一节来更新代码和运行环境。此外,为避免重复描述,我们将本书中多次使用的函数和类封装在版本号为1.0.0的` gluonbook ` 包中。这些函数和类的定义所在章节已在附录[ “gluonbook包索引”] ( ../chapter_appendix/gluonbook.md ) 里列出。
32
32
33
33
本书可以作为MXNet入门教程使用。但我们提供代码的主要目的在于增加一个在文字、图像和公式外的学习深度学习算法的方式,以及一个便于理解各算法在真实数据上实际效果的交互式环境。书中只使用了MXNet的` ndarray ` 、` autograd ` 、` gluon ` 等模块的基础功能,使你尽可能了解深度学习算法的实现细节。即便你在研究和工作中使用了其他深度学习框架,书中的代码也能帮助你更好地理解深度学习算法。
34
34
Original file line number Diff line number Diff line change @@ -6,5 +6,5 @@ dependencies:
6
6
- pandas=0.23.2
7
7
- pip :
8
8
- requests==2.18.4
9
- - mxnet==1.2.1
9
+ - mxnet==1.2.0
10
10
- gluonbook==0.8.5
You can’t perform that action at this time.
0 commit comments