- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用 tensorflow 训练 CNN 模型。我的 GPU 利用率仅达到 60% (+- 2-3%),没有大幅下降。
Sun Oct 23 11:34:26 2016
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 367.57 Driver Version: 367.57 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 1070 Off | 0000:01:00.0 Off | N/A |
| 1% 53C P2 90W / 170W | 7823MiB / 8113MiB | 60% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 3644 C /usr/bin/python2.7 7821MiB |
+-----------------------------------------------------------------------------+
因为它是 Pascal 卡,所以我使用 CUDA 8 和 cudnn 5.1.5CPU使用率约为50%(均匀分布在8个线程上。i7 4770k),因此CPU性能不应成为瓶颈。
我使用 Tensorflow 的二进制文件格式并使用 tf.TFRecordReader() 读取
我正在创建像这样的批量图像:
#Uses tf.TFRecordReader() to read single Example
label, image = read_and_decode_single_example(filename_queue=filename_queue)
image = tf.image.decode_jpeg(image.values[0], channels=3)
jpeg = tf.cast(image, tf.float32) / 255.
jpeg.set_shape([66,200,3])
images_batch, labels_batch = tf.train.shuffle_batch(
[jpeg, label], batch_size= FLAGS.batch_size,
num_threads=8,
capacity=2000, #tried bigger values here, does not change the performance
min_after_dequeue=1000) #here too
这是我的训练循环:
sess = tf.Session()
sess.run(init)
tf.train.start_queue_runners(sess=sess)
for step in xrange(FLAGS.max_steps):
labels, images = sess.run([labels_batch, images_batch])
feed_dict = {images_placeholder: images, labels_placeholder: labels}
_, loss_value = sess.run([train_op, loss],
feed_dict=feed_dict)
我对 tensorflow 没有太多经验,而且我现在不知道瓶颈可能在哪里。如果您需要更多代码片段来帮助识别问题,我将提供它们。
更新:带宽测试结果
==5172== NVPROF is profiling process 5172, command: ./bandwidthtest
Device: GeForce GTX 1070
Transfer size (MB): 3960
Pageable transfers
Host to Device bandwidth (GB/s): 7.066359
Device to Host bandwidth (GB/s): 6.850315
Pinned transfers
Host to Device bandwidth (GB/s): 12.038037
Device to Host bandwidth (GB/s): 12.683915
==5172== Profiling application: ./bandwidthtest
==5172== Profiling result:
Time(%) Time Calls Avg Min Max Name
50.03% 933.34ms 2 466.67ms 327.33ms 606.01ms [CUDA memcpy DtoH]
49.97% 932.32ms 2 466.16ms 344.89ms 587.42ms [CUDA memcpy HtoD]
==5172== API calls:
Time(%) Time Calls Avg Min Max Name
46.60% 1.86597s 4 466.49ms 327.36ms 606.15ms cudaMemcpy
35.43% 1.41863s 2 709.31ms 632.94ms 785.69ms cudaMallocHost
17.89% 716.33ms 2 358.17ms 346.14ms 370.19ms cudaFreeHost
0.04% 1.5572ms 1 1.5572ms 1.5572ms 1.5572ms cudaMalloc
0.02% 708.41us 1 708.41us 708.41us 708.41us cudaFree
0.01% 203.58us 1 203.58us 203.58us 203.58us cudaGetDeviceProperties
0.00% 187.55us 1 187.55us 187.55us 187.55us cuDeviceTotalMem
0.00% 162.41us 91 1.7840us 105ns 61.874us cuDeviceGetAttribute
0.00% 79.979us 4 19.994us 1.9580us 73.537us cudaEventSynchronize
0.00% 77.074us 8 9.6340us 1.5860us 28.925us cudaEventRecord
0.00% 19.282us 1 19.282us 19.282us 19.282us cuDeviceGetName
0.00% 17.891us 4 4.4720us 629ns 8.6080us cudaEventDestroy
0.00% 16.348us 4 4.0870us 818ns 8.8600us cudaEventCreate
0.00% 7.3070us 4 1.8260us 1.7040us 2.0680us cudaEventElapsedTime
0.00% 1.6670us 3 555ns 128ns 1.2720us cuDeviceGetCount
0.00% 813ns 3 271ns 142ns 439ns cuDeviceGet
最佳答案
在获得更多 tensorflow 经验后,我意识到 GPU 的使用很大程度上取决于网络大小、批量大小和预处理。使用具有更多转换层的更大网络(例如 Resnet 样式)会增加 GPU 使用率,因为涉及更多计算,并且通过传输数据等产生的开销(与计算相关)更少。
关于performance - Tensorflow GPU 利用率仅为 60% (GTX 1070),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40201594/
我知道使用事件监视器我们可以看到 CPU 利用率。但我想通过脚本获取远程系统的这些信息。 top 命令对我没有帮助。请评论我任何其他方式来获得它。 最佳答案 在日志模式下对 top 的反对是什么? t
我一直在使用 NVML 库来获取图形和内存利用率的值 Rodinia 基准套件。我观察到,对于不同的频率,同一应用程序的利用率显示出不同的值。来自维基链接http://en.wikipedia.org
我们计划使用 Locust 进行性能测试。我已经在 Kubernetes 上以分布式模式启动了 Locust,有 800 个用户持续了 5 分钟。孵化率也是100。几分钟后,我可以在工作日志中看到以下
关闭。这个问题是off-topic .它目前不接受答案。 想改进这个问题? Update the question所以它是on-topic对于堆栈溢出。 10年前关闭。 Improve this qu
我正在使用java 8并行流将数据插入数据库。以下是代码 customers.parallelStream().forEach(t->{ UserTransaction userTra
我有一个基准测试程序,可以计算时间(以毫秒和滴答为单位),以持久化到 Entity Framework 4.0。有没有办法计算 CPU 负载?我猜我需要查询 Windows 来找出我的 CPU 频率、
我正在处理一个与网络相关的守护进程:它接收数据,处理数据,然后将数据吐出。我想通过分析它并降低它的 CPU 使用率来提高这个守护进程的性能。我可以在 Linux 上使用 gprof 轻松完成此操作。但
考虑到下面的 C 代码,我预计 CPU 利用率会上升到 100%,因为处理器会尝试完成分配给它的作业(在这种情况下是无限的)。在运行可执行文件 5 分钟后,我发现 CPU 达到了最大值。的 48%。我
我想修改以下脚本,使其仅在进程/pid 号使用超过 50% 的 CPU 时运行。有人知道如何获取该信息吗?如果特定 pid 的 cpu 利用率超过 50%,我只想使用 jstack 创建线程转储。 #
我在 Python 3.4 中工作,对内存中的分区数据执行简单搜索,并尝试 fork 进程以利用所有可用的处理能力。我说天真,因为我确信还有其他额外的事情可以提高性能,但这些潜力超出了手头问题的范围。
我的多线程应用程序 (c++) 使用 pthreads。该应用程序自动生成线程并按需重新使用它们,并允许在线程空闲时间过长时将其取消。 我放入了一个“特殊线程”来捕获统计数据,以查看应用程序在不同情况
是否有一种标准方法来获取 GPU 上的当前负载?我正在寻找类似于显示 CPU% 的任务管理器的东西。 GPU-Z 等实用程序会显示此值,但我不确定它是如何获得此值的。我目前对 AMD 显卡特别感兴趣,
在运行时如何控制 cpu 利用率是明智的? 轮询 CPU 负载并插休眠眠? 最佳答案 我会推荐操作系统功能。 Windows 上有性能计数器和 WinAPI 函数。 这是一个使用来自 BCL Team
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 这个问题似乎不是关于 a specific programming problem, a softwar
我有一个运行 Linux 的 ARM 平台,其中 L1 行长 64 字节。 我决定用另一个 malloc 替换 malloc(通过 LD_PRELOAD),其中无论分配给 malloc 的大小如何,内
在 Linux 中是否有命令或任何其他方法来获取当前或平均 CPU 利用率(对于多处理器环境)? 我在一个小型系统中使用嵌入式 Linux。基本上,我需要确定 CPU 利用率,如果它很高,我可以将一个
我有一个计算CPU利用率的任务,我有4个进程 P1 30% 的时间在等待 I/O。 P2 40% 的时间在等待 I/O。 P3 等待 I/0 20% 的时间。 P4 等待 I/0 50% 的时间。 我
我正在训练一个模型,当我在 Google Cloud Platform 控制台中打开 TPU 时,它会向我显示 CPU 利用率(我想是在 TPU 上)。它真的非常非常低(比如 0.07%),所以也许是
我在 redhat 6 上执行了以下代码片段: #include int main(int argc, char *argv[]) { while(true) { #ifdef S
我有一个程序可以通过将大文件分成 block 来对大文件进行排序,对 block 进行排序并将它们合并到最终排序的文件中。应用程序运行一个线程来从文件加载数据/将数据保存到文件 - 只有一个线程执行
我是一名优秀的程序员,十分优秀!