- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我的模型大约有 2.4GB。在我的推理步骤中,我想在每个 GPU 中通过多处理方法加载模型。这意味着我尝试在一个 GPU 中做两个进程,每个进程加载一个模型。在我完成每个 session 的配置后,每个 session 获得大约5GB内存,但我仍然遇到“from device: CUDA_ERROR_OUT_OF_MEMORY”。我很纳闷。。。求助
GPU 信息:
[search@qrwt01/home/s/apps/qtfserverd/bin]$ nvidia-smi2017 年 9 月 14 日星期四 21:42:48
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 375.26 Driver Version: 375.26 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 Tesla K80 Off | 0000:08:00.0 Off | 0 |
| N/A 48C P0 61W / 149W | 11366MiB / 11439MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
| 1 Tesla K80 Off | 0000:09:00.0 Off | 0 |
| N/A 32C P0 72W / 149W | 11359MiB / 11439MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 33056 C ...ome/s/apps/qtfserverd/etc/qtfserverd.conf 5823MiB |
| 0 33057 C ...ome/s/apps/qtfserverd/etc/qtfserverd.conf 5515MiB |
| 1 33058 C ...ome/s/apps/qtfserverd/etc/qtfserverd.conf 5823MiB |
| 1 33059 C ...ome/s/apps/qtfserverd/etc/qtfserverd.conf 5516MiB |
+-----------------------------------------------------------------------------+
session 配置:
void* create_session(void* graph, std::string& checkpoint_path,
int intra_op_threads, int inter_op_threads, std::string& device_list) {
Session* session = NULL;
SessionOptions sess_opts;
//int NUM_THREADS = 8;
if (intra_op_threads > 0) {
sess_opts.config.set_intra_op_parallelism_threads(intra_op_threads);
}
if (inter_op_threads > 0) {
sess_opts.config.set_inter_op_parallelism_threads(inter_op_threads);
}
sess_opts.config.set_allow_soft_placement(true);
sess_opts.config.mutable_gpu_options()->set_visible_device_list(device_list);
sess_opts.config.mutable_gpu_options()->set_allocator_type("BFC");
sess_opts.config.mutable_gpu_options()->set_per_process_gpu_memory_fraction(0.5);
sess_opts.config.mutable_gpu_options()->set_allow_growth(true);
Status status = NewSession(sess_opts, &session);
if (!status.ok()) {
fprintf(stderr, "Create Session Failed %s\n", status.ToString().c_str());
return NULL;
}
错误信息
加载/home/search/tensorflow/deploy_combine.model.meta graph to/gpu:1 成功2017-09-14 21:42:31.188212: I tensorflow/core/common_runtime/gpu/gpu_device.cc:965] 找到具有属性的设备 0:名称:Tesla K80 专业:3 次要:7 memoryClockRate(GHz):0.8235pciBusID:0000:09:00.0总内存:11.17GiB 空闲内存:11.05GiB2017-09-14 21:42:31.188260: I tensorflow/core/common_runtime/gpu/gpu_device.cc:1055] 创建 TensorFlow 设备 (/device:GPU:0) -> (device: 1, name: Tesla K80, pci总线 ID:0000:09:00.0,计算能力:3.7)qss_switch:1, lstm_switch:1qss_switch:1, lstm_switch:12017-09-14 21:42:33.826598: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 1.58G(1701773312 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.838694: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 1.43G(1531596032 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.893832: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 439.82M(461180672 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.903917: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 439.82M(461180672 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.913843: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 439.82M(461180672 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.924008: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 439.82M(461180672 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.935385: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 439.82M(461180672 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.946556: E tensorflow/stream_executor/cuda/cuda_driver.cc:936] 无法从设备分配 439.82M(461180672 字节):CUDA_ERROR_OUT_OF_MEMORY2017-09-14 21:42:33.956340: E tensorflow/stream_executor/cuda/cuda_driver.
最佳答案
尝试减少操作参数或分批计算,因为错误表明所有 GPU 资源已耗尽。
关于c++ - C++ API 中的 Tensorflow 加载模型并出现 "from device: CUDA_ERROR_OUT_OF_MEMORY"错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46230662/
我正在尝试在 TensorFlow 中构建一个大型 CNN,并打算在多 GPU 系统上运行它。我采用了“塔式”系统,并为两个 GPU 拆分批处理,同时将变量和其他计算保留在 CPU 上。我的系统有 3
我一直在尝试使用这个 GPU 库 Rootbeer 我已经运行了演示,它们运行良好,然后我尝试运行我的代码,在该代码段的倒数第二行 (Rootbeer rootbeer = new Rootbeer(
当你想训练一个神经网络时,你需要设置一个batch size。批量越大,GPU 内存消耗越高。当您缺乏 GPU 内存时,tensorflow 会引发这种消息: 2021-03-29 15:45:04.
我正在尝试运行 tensorflow 项目,但在大学 HPC 集群上遇到内存问题。我必须为数百个不同长度的输入运行预测作业。我们有具有不同数量 vmem 的 GPU 节点,所以我试图以一种不会在 GP
我正在运行 Tensorflow 对象检测 API,使用 object_detection/train.py 脚本训练我自己的检测器,发现 here 。问题是我不断收到CUDA_ERROR_OUT_O
我应该如何解决这个错误? [jalal@goku bin]$ source activate deep_emotion (deep_emotion) [jalal@goku bin]$ python
我的模型大约有 2.4GB。在我的推理步骤中,我想在每个 GPU 中通过多处理方法加载模型。这意味着我尝试在一个 GPU 中做两个进程,每个进程加载一个模型。在我完成每个 session 的配置后,每
我在 python 上使用 tensorflow 训练了一个没有问题的模型。我现在正尝试将此模型的推理集成到预先存在的支持 OpenGL 的软件中。但是,我在 cuInit 期间得到了一个 CUDA_
我是一名优秀的程序员,十分优秀!