- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
目标/问题
在 Python 中,我正在寻找一种将数据从内存映射文件读/写到 GPU 的快速方法。
在之前的 SO 溢出帖子中 [ Cupy OutOfMemoryError when trying to cupy.load larger dimension .npy files in memory map mode, but np.load works fine ]
提到这可以使用 CUDA 固定的“零复制”内存。而且,这个方法好像是这个人开发的[
cuda - Zero-copy memory, memory-mapped file ] 虽然那个人正在使用 C++。
我之前的尝试是使用 Cupy,但我对任何 cuda 方法都持开放态度。
到目前为止我尝试过的
我提到了我如何尝试使用 Cupy,它允许您在内存映射模式下打开 numpy 文件。
import os
import numpy as np
import cupy
#Create .npy files.
for i in range(4):
numpyMemmap = np.memmap( 'reg.memmap'+str(i), dtype='float32', mode='w+', shape=( 2200000 , 512))
np.save( 'reg.memmap'+str(i) , numpyMemmap )
del numpyMemmap
os.remove( 'reg.memmap'+str(i) )
# Check if they load correctly with np.load.
NPYmemmap = []
for i in range(4):
NPYmemmap.append( np.load( 'reg.memmap'+str(i)+'.npy' , mmap_mode = 'r+' ) )
del NPYmemmap
# Eventually results in memory error.
CPYmemmap = []
for i in range(4):
print(i)
CPYmemmap.append( cupy.load( 'reg.memmap'+str(i)+'.npy' , mmap_mode = 'r+' ) )
OutOfMemoryError:
it appears that cupy.load will require that the entire file fit first in host memory, then in device memory.
CuPy can't handle mmap memory. So, CuPy uses GPU memory directly in default. https://docs-cupy.chainer.org/en/stable/reference/generated/cupy.cuda.MemoryPool.html#cupy.cuda.MemoryPool.malloc You can change default memory allocator if you want to use Unified Memory.
cupy.cuda.set_allocator(cupy.cuda.MemoryPool(cupy.cuda.memory.malloc_managed).malloc)
最佳答案
在我看来,目前,cupy
不提供可用于代替通常的设备内存分配器的固定分配器,即可以用作 cupy.ndarray
的支持。 .如果这对您很重要,您可以考虑提交 cupy issue .
但是,似乎可以创建一个。这应该被视为实验代码。并且存在一些与其使用相关的问题。
基本思想是,我们将使用cupy.cuda.set_allocator
用我们自己的替换cupy 的默认设备内存分配器。正如已经向您建议的那样。我们需要自行更换 BaseMemory
用作 cupy.cuda.memory.MemoryPointer
的存储库的类.这里的主要区别在于我们将使用固定内存分配器而不是设备分配器。这是PMemory
的要点下面的课。
需要注意的其他一些事项:
cupy
分配器为其默认值。不幸的是,不像cupy.cuda.set_allocator
,我没有找到对应的cupy.cuda.get_allocator
,这在我看来是 cupy
的不足之处,这似乎也值得向我提出一个cupy issue。然而,对于这个演示,我们将只恢复到 None
选择,它使用默认设备内存分配器之一(但不是池分配器)。 cupy.load
)将创建不需要的主机分配和不需要的复制操作。我认为要解决这个问题需要的不仅仅是我建议的这个小改动。但至少对于您的测试用例,这种额外的开销可能是可以管理的。看来您想从磁盘加载一次数据,然后将其留在那里。对于这种类型的事件,这应该是可以管理的,尤其是当您将其分解成块时。正如我们将看到的,处理 4 个 5GB 块对于 25GB 的主机内存来说太多了。我们需要为四个 5GB 块(实际上是固定的)分配主机内存,我们还需要额外的空间来容纳一个额外的 5GB“开销”缓冲区。所以 25GB 是不够的。但出于演示目的,如果我们将您的缓冲区大小减少到 4GB (5x4GB = 20GB),我认为它可能适合您的 25GB 主机 RAM 大小。 BaseMemory
的微不足道的替换具有相似类意味着我们建议 cupy
这个“设备”内存与所有其他普通设备内存一样,具有特定的设备关联。在像您这样的单一设备设置中,这种区别是没有意义的。但是,这不适用于固定内存的稳健多设备使用。为此,再次建议对 cupy
进行更稳健的更改。 ,也许是通过提交问题。 import os
import numpy as np
import cupy
class PMemory(cupy.cuda.memory.BaseMemory):
def __init__(self, size):
self.size = size
self.device_id = cupy.cuda.device.get_device_id()
self.ptr = 0
if size > 0:
self.ptr = cupy.cuda.runtime.hostAlloc(size, 0)
def __del__(self):
if self.ptr:
cupy.cuda.runtime.freeHost(self.ptr)
def my_pinned_allocator(bsize):
return cupy.cuda.memory.MemoryPointer(PMemory(bsize),0)
cupy.cuda.set_allocator(my_pinned_allocator)
#Create 4 .npy files, ~4GB each
for i in range(4):
print(i)
numpyMemmap = np.memmap( 'reg.memmap'+str(i), dtype='float32', mode='w+', shape=( 10000000 , 100))
np.save( 'reg.memmap'+str(i) , numpyMemmap )
del numpyMemmap
os.remove( 'reg.memmap'+str(i) )
# Check if they load correctly with np.load.
NPYmemmap = []
for i in range(4):
print(i)
NPYmemmap.append( np.load( 'reg.memmap'+str(i)+'.npy' , mmap_mode = 'r+' ) )
del NPYmemmap
# allocate pinned memory storage
CPYmemmap = []
for i in range(4):
print(i)
CPYmemmap.append( cupy.load( 'reg.memmap'+str(i)+'.npy' , mmap_mode = 'r+' ) )
cupy.cuda.set_allocator(None)
我还没有在 25GB 主机内存和这些文件大小的设置中测试过这个。但是我已经用超过我的 GPU 设备内存的其他文件大小对其进行了测试,它似乎可以工作。
cupy
慢得多。设备内存。
关于numpy - 如何将 CUDA 固定 "zero-copy"内存用于内存映射文件?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57752516/
我在具有 2CPU 和 3.75GB 内存 (https://aws.amazon.com/ec2/instance-types/) 的 c3.large Amazon EC2 ubuntu 机器上运
我想通过用户空间中的mmap-ing并将地址发送到内核空间从用户空间写入VGA内存(视频内存,而不是缓冲区),我将使用pfn remap将这些mmap-ed地址映射到vga内存(我将通过 lspci
在 Mathematica 中,如果你想让一个函数记住它的值,它在语法上是很轻松的。例如,这是标准示例 - 斐波那契: fib[1] = 1 fib[2] = 1 fib[n_]:= fib[n] =
我读到动态内存是在运行时在堆上分配的,而静态内存是在编译时在堆栈上分配的,因为编译器知道在编译时必须分配多少内存。 考虑以下代码: int n; cin>>n; int a[n]; 如果仅在运行期间读
我是 Python 的新手,但我之前还不知道这一点。我在 for 循环中有一个基本程序,它从站点请求数据并将其保存到文本文件但是当我检查我的任务管理器时,我发现内存使用量只增加了?长时间运行时,这对我
我正在设计一组数学函数并在 CPU 和 GPU(使用 CUDA)版本中实现它们。 其中一些函数基于查找表。大多数表占用 4KB,其中一些占用更多。基于查找表的函数接受一个输入,选择查找表的一两个条目,
读入一个文件,内存被动态分配给一个字符串,文件内容将被放置在这里。这是在函数内部完成的,字符串作为 char **str 传递。 使用 gdb 我发现在行 **(str+i) = fgetc(aFil
我需要证实一个理论。我正在学习 JSP/Java。 在查看了一个现有的应用程序(我没有写)之后,我注意到一些我认为导致我们的性能问题的东西。或者至少是其中的一部分。 它是这样工作的: 1)用户打开搜索
n我想使用memoization缓存某些昂贵操作的结果,这样就不会一遍又一遍地计算它们。 两个memoise和 R.cache适合我的需要。但是,我发现缓存在调用之间并不可靠。 这是一个演示我看到的问
我目前正在分析一些 javascript shell 代码。这是该脚本中的一行: function having() { memory = memory; setTimeout("F0
我有一种情况,我想一次查询数据库,然后再将整个数据缓存在内存中。 我得到了内存中 Elasticsearch 的建议,我用谷歌搜索了它是什么,以及如何在自己的 spring boot 应用程序中实现它
我正在研究 Project Euler (http://projecteuler.net/problem=14) 的第 14 题。我正在尝试使用内存功能,以便将给定数字的序列长度保存为部分结果。我正在
所以,我一直在做 Java 内存/注意力游戏作业。我还没有达到我想要的程度,它只完成了一半,但我确实让 GUI 大部分工作了......直到我尝试向我的框架添加单选按钮。我认为问题可能是因为我将 JF
我一直在尝试使用 Flask-Cache 的 memoize 功能来仅返回 statusTS() 的缓存结果,除非在另一个请求中满足特定条件,然后删除缓存。 但它并没有被删除,并且 Jinja 模板仍
我对如何使用 & 运算符来减少内存感到非常困惑。 我可以回答下面的问题吗? clase C{ function B(&$a){ $this->a = &$a; $thi
在编写代码时,我遇到了一个有趣的问题。 我有一个 PersonPOJO,其 name 作为其 String 成员之一及其 getter 和 setter class PersonPOJO { priv
在此代码中 public class Base { int length, breadth, height; Base(int l, int b, int h) { l
Definition Structure padding is the process of aligning data members of the structure in accordance
在 JavaScript Ninja 的 secret 中,作者提出了以下方案,用于在没有闭包的情况下内存函数结果。他们通过利用函数是对象这一事实并在函数上定义一个属性来存储过去调用函数的结果来实现这
我正在尝试找出 map 消耗的 RAM 量。所以,我做了以下事情;- Map cr = crPair.collectAsMap(); // 200+ entries System.out.printl
我是一名优秀的程序员,十分优秀!