gpt4 book ai didi

c++ - 计算矩阵的行列式时内存泄漏

转载 作者:行者123 更新时间:2023-11-30 03:51:21 25 4
gpt4 key购买 nike

在编写一些代码来计算一个简单的 3 x 3 矩阵的行列式时,我注意到它开始累积内存泄漏。我已将方法简化为以下内容(这意味着我不再使用算法来确定任何矩阵的大小,而是“手动”完成):

double Determinant(double** &m)
{
return m[0][0] * (m[1][1] * m[2][2] - m[2][1] * m[1][2]) -
m[0][1] * (m[1][0] * m[2][2] - m[1][2] * m[2][0]) +
m[0][2] * (m[1][0] * m[2][1] - m[1][1] * m[2][0]);
}

我找不到这方面的问题,因为我没有在方法内部分配任何内存。如果我更改它并简单地返回一个 double 值(例如,return 1.0),泄漏就会消失。这里发生了什么?

编辑(更多代码):

double LogMultivariateNormalDensity(unsigned char* &x, unsigned char* &mean, double** &sigma)
{
double det = Determinant(sigma);
...
}

依次在循环中调用

for(unsigned int i = 0; i < n; i++)
{
LogMultivariateNormalDensity(_x[i], _mean[i], _sigma[i])
}

作为二维数组,_sigma 使用 malloc 分配(在两个维度上)。

最佳答案

malloc 分配的内存必须用 free 释放。总是,即使是少量内存。

关于c++ - 计算矩阵的行列式时内存泄漏,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31304343/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com