gpt4 book ai didi

python - mxnet(胶子): cpu used when gpu(0) context selected

转载 作者:太空宇宙 更新时间:2023-11-04 02:32:58 25 4
gpt4 key购买 nike

编辑 02/2018 在使用本地存储的数据编写我自己的代码和不那么笨重的准确度指标计算后,我发现速度有了显着提高。 GPU 还会冲洗我尝试在 mxnet 中构建的任何 CNN 中的 CPU;即使只是使用 MNIST。我相信我的问题与教程代码有关,不再认为这是一个真正的问题。

我正在浏览 http://gluon.mxnet.io/chapter03_deep-neural-networks/mlp-gluon.html 上的“胶子中的多层感知器”MNIST 教程

(相同的代码,除了将上下文设置为 gpu(0),使用顺序模型)

我在 Windows 10 中。使用 python 3 (anaconda),安装 CUDA 9.0 和 cuDNN v7.0.5 for 9.0,然后从 pip 安装 mxnet_cu90。

我将数据和模型上下文设置为 gpu(0),但我的 gtx 1080 使用率徘徊在 1-4% 左右(无论脚本是否正在运行),而我的 8 个 Xeon 内核则上升到 50-60% 左右通过时代。无论上下文如何,训练时间都没有差异。当我在训练后打印参数时,它说它们是 NDArray size gpu(0),所以它肯定认为它正在使用 gpu。

编辑:在我家里的笔记本电脑上复制(gpu:GTX980m,cpu:I7 4710HQ)。在这种情况下,使用了 gpu:980m 每个时期的使用率从 0% 增加到 12%。然而,cpu 也使用了 >40% 的负载,而且 gpu 上下文训练实际上比在 cpu 上慢。

我开始认为,因为这是 MNIST/ANN 的一个简单问题,所以 gpu 不会受到挑战。也许我会在训练 CNN 时看到更多 gpu 使用的影响。

虽然我仍然有点困惑,因为我在使用 TensorFlow 时从未遇到过这些问题;使用 gpu 通常总是优于我的 cpu。

感谢任何帮助,谢谢,

编辑:按要求编写代码:

#MULTILAYER PERCEPTRONS IN GLUON (MNIST)
#MODIFIED FROM: http://gluon.mxnet.io/chapter03_deep-neural-networks/mlp-gluon.html

#IMPORT REQUIRED PACKAGES
import numpy as np
import mxnet as mx
from mxnet import nd, autograd, gluon
import datetime #for comparing training times

#SET THE CONTEXTS (GPU/CPU)
ctx = mx.gpu(0) #note: original tutorial sets separate context variable for data/model. The data_ctx was never used so i submitted an issue on github and use a single ctx here
#ctx = mx.cpu()

#PREDEFINE SOME USEFUL NUMBERS
batch_size = 64
num_inputs = 784
num_outputs = 10 #ten hand written digits [0-9]
num_examples = 60000

#LOAD IN THE MNIST DATASET
def transform(data, label):
return data.astype(np.float32)/255, label.astype(np.float32)
train_data = mx.gluon.data.DataLoader(mx.gluon.data.vision.MNIST(train = True, transform = transform), batch_size, shuffle = True)
test_data = mx.gluon.data.DataLoader(mx.gluon.data.vision.MNIST(train = False, transform = transform), batch_size, shuffle = False)

#MAKE SEQUENTIAL MODEL

num_hidden = 64
net = gluon.nn.Sequential()
with net.name_scope():
net.add(gluon.nn.Dense(num_hidden, activation = "relu"))
net.add(gluon.nn.Dense(num_hidden, activation = "relu"))
net.add(gluon.nn.Dense(num_outputs))

net.collect_params().initialize(mx.init.Normal(sigma = 0.01), ctx = ctx)

#SETUP THE FUNCTIONS FOR TRAINING

softmax_cross_entropy = gluon.loss.SoftmaxCrossEntropyLoss() #LOSS
trainer = gluon.Trainer(net.collect_params(), 'sgd', {'learning_rate': 0.01}) #OPTIMIZER

#DEFINE A LOOP TO TEST THE ACCURACY OF THE MODEL ON A TEST SET
def evaluate_accuracy(data_iterator, net):
acc = mx.metric.Accuracy()
for i, (data, label) in enumerate(data_iterator):
data = data.as_in_context(ctx).reshape((-1,784))
label = label.as_in_context(ctx)
output = net(data)
predictions = nd.argmax(output, axis = 1)
acc.update(preds = predictions, labels = label)
return acc.get()[1] #get the accuracy value from the mxnet accuracy metric

#TRAINING LOOP
epochs = 10
smoothing_constant = 0.01
start_time = datetime.datetime.now()

for e in range(epochs):
cumulative_loss = 0
for i, (data, label) in enumerate(train_data):
data = data.as_in_context(ctx).reshape((-1, 784))
label = label.as_in_context(ctx)
with autograd.record():
output = net(data)
loss = softmax_cross_entropy(output, label)
loss.backward()
trainer.step(data.shape[0])
cumulative_loss += nd.sum(loss).asscalar()
test_accuracy = evaluate_accuracy(test_data, net)
train_accuracy = evaluate_accuracy(train_data, net)
print("Epoch %s. Loss: %s, Train_acc %s, Test_acc %s" % (e, cumulative_loss/num_examples, train_accuracy, test_accuracy))

#I ADDED THIS TO GET THE FINAL PARAMETERS / NDARRAY CONTEXTS
params = net.collect_params()
for param in params.values():
print(param.name,param.data())

#I ADDED THIS TO COMPARE THE TIMING I GET WHEN SETTING THE CTX AS GPU/CPU
end_time = datetime.datetime.now()
training_time = end_time - start_time
print("In h/m/s, total training time was: %s" % training_time)

CPU 上下文的结果: cmd output for params and total training time (cpu)

GPU 上下文的结果(实际上花费了更长的时间): cmd output for params and total training time (gpu)

最佳答案

有一些因素会影响您的表现。

  1. 您的训练受 DataLoader 限制。使用 num_workers 增加获取数据并将数据预处理到 NDArrays 中的进程数,以确保您的 GPU 不会挨饿。例如 train_data = mx.gluon.data.DataLoader(mx.gluon.data.vision.MNIST(train=True, transform=transform), batch_size, shuffle=True, num_workers=4)

  2. MXNet 中的内置指标目前效率低下,尤其是在批量大小非常小时。在分析训练循环(使用简单的 time())时,您会注意到大部分时间都花在了准确性计算上,而不是训练上。但是,这在真正的 DL 训练 session 中通常不是问题,因为训练数据的大小通常远大于验证数据的大小,并且您通常不会像本教程中所示那样同时计算训练和验证的准确性。

但总的来说,由于教程网络和数据集非常简单,因此您不会在 GPU 利用率方面获得巨大提升。

关于python - mxnet(胶子): cpu used when gpu(0) context selected,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48692154/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com