gpt4 book ai didi

python - 有没有办法在 GPU 上使用 tensorflow map_fn?

转载 作者:太空狗 更新时间:2023-10-29 17:20:40 32 4
gpt4 key购买 nike

我有一个形状为 [a,n] 的张量 A,我需要用另一个形状为 B 的张量执行操作 my_op [b,n] 使得生成的张量 C 的形状为 [a,b]。

换句话说:对于 A (A[0], A 1 ,...A[n]) 中的每个 子张量,我需要执行一个B 中的 each 子张量的元素明智的操作。

因此生成的张量将包含以下内容:

[ [ A[0] op B[0] , A[0] op B[1], ... , A[0] op B[b] ],
[ A[1] op B[0] , A[1] op B[1], ... , A[1] op B[b] ],
[ ... ],
[ A[a] op B[0] , A[a] op B[1], ... , A[a] op B[b] ] ]

我能够找到实现此目的的唯一方法是通过嵌套使用 tf.map_fn因此:

import tensorflow as tf
import time
import numpy as np

a_size = 64
b_size = 256*256
n = 256
A = tf.placeholder(tf.float32,[a_size,n])
B = tf.placeholder(tf.float32,[b_size,n])

def elementwise_op(a,b):
return tf.reduce_sum(tf.multiply(a,b))

def intermediate_op(sub_a,my_b):
sample_values = tf.map_fn(lambda x: elementwise_op(sub_a,x),my_b)
return sample_values

my_op = tf.map_fn(lambda x: intermediate_op(x,B),A)

with tf.Session() as sess:
a = np.random.rand(a_size,n)
b = np.random.rand(b_size,n)
start_time = time.time()
result = sess.run (my_op,feed_dict={A:a,B:b})
print ("exec time: " ,time.time()-start_time)
print (result.shape)

上面的代码运行良好,但是,它并没有很好地使用 GPU(根据 nvidia-smi,只有大约 15% 的利用率)。事实上,当使用 CPU 时,它的运行速度快了一个数量级!! (在我的 12 核机器上)使用 GPU 运行时,我发现 GPU 利用率非常低 (~15%),而在我的 一个 CPU 核上则为 100%。仅在 CPU 上运行时,我看到所有 CPU 内核的利用率都为 100%。

5个CPU平均运行时间:11.33s

5 次 GPU 运行的平均时间:111.88s

以上测试是使用官方 Tensorflow docker 镜像运行的:tensorflow/tensorflow:latest-py3(用于 CPU)和 tensorflow/tensorflow:latest-gpu-py3 (对于 GPU)

我的猜测是 map_fn 通过 python lambda 强制数据在 每次 迭代时在 CPU 和 GPU 之间来回复制,嵌套的性质操作只会让情况变得更糟。未回答的 SO 问题中的评论 here表明是这种情况。

This article声称:

lambda expression is the main reason of low GPU utilization.

-

所以我的问题是:有没有办法强制 map_fn 使用 GPU?或者避免使用 Python lambda?

或者,是否有其他一些(可能更多的 tensorflow-y)方法来实现上述结果,以便获取图形在 GPU 上运行?

编辑:运行探查器后(我不得不大幅减少数组的大小才能让探查器运行,因为它疯狂地消耗 RAM),以下几行引起了我的注意:

node name     |     output bytes     |      total execution time     | accelerator execution time     |     cpu execution time

Mul 1.02KB (22.23%, 0.29%), 195.07ms (85.00%, 13.06%), 5.29ms (100.00%, 25.79%), 189.78ms (84.79%, 12.89%)

Sum 256B (21.41%, 0.07%), 241.48ms (69.08%, 16.17%), 6.01ms (74.21%, 29.29%), 235.47ms (69.01%, 15.99%)

TensorArrayScatterV3 512B (0.64%, 0.15%), 658.31ms (46.87%, 44.09%), 9.19ms (44.80%, 44.80%), 649.12ms (46.90%, 44.08%)

看起来某些操作主要在 CPU 上完成,而且只在一个线程上完成!

最佳答案

tf.map_fn() construct 可以与在 GPU 上运行 ops 的函数一起使用。默认情况下,TensorFlow 将尝试在 GPU 上运行尽可能多的功能,并且任何与 GPU 不兼容的操作都将在 CPU 上运行。在您的程序中,整个 elementwise_op() 函数都是从与 GPU 兼容的操作构建的,因此每次迭代时 CPU 和 GPU 之间不应有额外的复制。

GPU 利用率低的原因很难从程序片段中确定。例如,如果 AB 相对较小,并且您从 Python 中输入它们并立即取回结果,则复制初始值的开销很可能进出 GPU 的数据将占主导地位。追踪这一点的最佳方法是使用 GPU 分析器,您可以使用 tfprof 获得它。或 NVIDIA Visual Profiler .

关于python - 有没有办法在 GPU 上使用 tensorflow map_fn?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47045026/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com