gpt4 book ai didi

python - Numpy 数据大小是特征矩阵大小的两倍是这样吗?

转载 作者:行者123 更新时间:2023-12-04 07:47:56 24 4
gpt4 key购买 nike

我正在生成 numpy 数组:

p_desct = np.random.uniform(-1, 0.4, [5000000, 512])
内存大小几乎 ~20G
特征矩阵 (C++) 中的相同数据:
    Eigen::MatrixXf x_im = Eigen::MatrixXf::Random(5000000,512);
内存大小 ~9,6G
numpy array 是否是相同矩阵的内存使用量加倍的情况?
还是我在这里遗漏了什么?

最佳答案

默认情况下,Numpy 数组使用 64 位浮点数(通常称为“ double ”),而您的 C++ 数组使用 32 位浮点数。这意味着您的 numpy 数组占用的内存是 C++ 数组的两倍。指定 dtype = np.float32如果你想使用 32 位浮点数。
另见 https://numpy.org/doc/stable/user/basics.types.html对于所有 numpy 数组数据类型

关于python - Numpy 数据大小是特征矩阵大小的两倍是这样吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/67122909/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com