Skip to content

Commit cfa48c3

Browse files
authored
Update use-gpu.md
1 parent 87c798e commit cfa48c3

File tree

1 file changed

+6
-6
lines changed

1 file changed

+6
-6
lines changed

chapter_deep-learning-computation/use-gpu.md

+6-6
Original file line numberDiff line numberDiff line change
@@ -23,11 +23,11 @@
2323
读者可能已经注意到MXNet张量看起来与NumPy的`ndarray`几乎相同。
2424
但有一些关键区别,其中之一是MXNet支持不同的硬件设备。
2525

26-
在MXNet中,每个数组都有一个上下文(context)。
26+
在MXNet中,每个数组都有一个环境(context)。
2727
默认情况下,所有变量和相关的计算都分配给CPU。
28-
有时上下文可能是GPU
28+
有时环境可能是GPU
2929
当我们跨多个服务器部署作业时,事情会变得更加棘手。
30-
通过智能地将数组分配给上下文
30+
通过智能地将数组分配给环境
3131
我们可以最大限度地减少在设备之间传输数据的时间。
3232
例如,当在带有GPU的服务器上训练神经网络时,
3333
我们通常希望模型的参数在GPU上。
@@ -41,11 +41,11 @@
4141

4242
:begin_tab:`pytorch`
4343
在PyTorch中,每个数组都有一个设备(device),
44-
我们通常将其称为上下文(context)。
44+
我们通常将其称为环境(context)。
4545
默认情况下,所有变量和相关的计算都分配给CPU。
46-
有时上下文可能是GPU
46+
有时环境可能是GPU
4747
当我们跨多个服务器部署作业时,事情会变得更加棘手。
48-
通过智能地将数组分配给上下文
48+
通过智能地将数组分配给环境
4949
我们可以最大限度地减少在设备之间传输数据的时间。
5050
例如,当在带有GPU的服务器上训练神经网络时,
5151
我们通常希望模型的参数在GPU上。

0 commit comments

Comments
 (0)