Commit cfa48c3 1 parent 87c798e commit cfa48c3 Copy full SHA for cfa48c3
File tree 1 file changed +6
-6
lines changed
chapter_deep-learning-computation
1 file changed +6
-6
lines changed Original file line number Diff line number Diff line change 23
23
读者可能已经注意到MXNet张量看起来与NumPy的` ndarray ` 几乎相同。
24
24
但有一些关键区别,其中之一是MXNet支持不同的硬件设备。
25
25
26
- 在MXNet中,每个数组都有一个上下文 (context)。
26
+ 在MXNet中,每个数组都有一个环境 (context)。
27
27
默认情况下,所有变量和相关的计算都分配给CPU。
28
- 有时上下文可能是GPU 。
28
+ 有时环境可能是GPU 。
29
29
当我们跨多个服务器部署作业时,事情会变得更加棘手。
30
- 通过智能地将数组分配给上下文 ,
30
+ 通过智能地将数组分配给环境 ,
31
31
我们可以最大限度地减少在设备之间传输数据的时间。
32
32
例如,当在带有GPU的服务器上训练神经网络时,
33
33
我们通常希望模型的参数在GPU上。
41
41
42
42
:begin_tab:` pytorch `
43
43
在PyTorch中,每个数组都有一个设备(device),
44
- 我们通常将其称为上下文 (context)。
44
+ 我们通常将其称为环境 (context)。
45
45
默认情况下,所有变量和相关的计算都分配给CPU。
46
- 有时上下文可能是GPU 。
46
+ 有时环境可能是GPU 。
47
47
当我们跨多个服务器部署作业时,事情会变得更加棘手。
48
- 通过智能地将数组分配给上下文 ,
48
+ 通过智能地将数组分配给环境 ,
49
49
我们可以最大限度地减少在设备之间传输数据的时间。
50
50
例如,当在带有GPU的服务器上训练神经网络时,
51
51
我们通常希望模型的参数在GPU上。
You can’t perform that action at this time.
0 commit comments