gpt4 book ai didi

c++ - 使用 OpenCV 随机森林,有什么方法可以获得分类的 "confidence"级别?

转载 作者:可可西里 更新时间:2023-11-01 18:29:43 25 4
gpt4 key购买 nike

如果我有一个训练有素的随机森林,有什么办法可以让我获得森林在测试样本上每个类(class)获得的票数?一定比例的选票会更好。

类似于 CVRTrees::predict,但得到的是原始输出以及预测的类。

谢谢

编辑 进一步解释我的目标,这样我就有可能得到解决我的问题而不一定是我的问题的答案。

要回答我知道多少,那就太少了。

这是一个真实世界的应用程序,我正在努力让自己尽快熟悉所有这些。

本质上,我研究的是判别式分类器,要求我能够比较 2 个(或更多)独立分类器之间的输出。我的意思是独立的,因为他们可能知道也可能不知道整个类集,但是确实存在一组类,其中所有分类器都包含此类的子集。

虽然我最初是从每个分类器收集关于分类的元信息,理想情况下它会包含某种形式(有 15% 是 A,78% 的机会是 B)[我知道机会是一个坏词,但我会离开它]。如果我可以获得该输出,我将能够根据分配给每个分类器的动态性能权重执行最终分类。

我的想法是,我可以使用非常简单的基于规则的分类器进行初始分类,而更奇特的分类器有时间进行训练。理想情况下,学习分类器可能比规则分类器支持更多的类,并且随着时间的推移它会被主要使用。

最佳答案

我正在处理同样的问题,我想在这里分享我的解决方案。我从 CvRTrees 派生了一个类,并添加了一个具有所需行为的函数。我使用现有的 predict() 函数作为起点。这是我的代码:

class CvRTreesMultiClass : public CvRTrees
{
public:
int predict_multi_class( const CvMat* sample,
cv::AutoBuffer<int>& out_votes,
const CvMat* missing = 0) const;
};

与:

int CvRTreesMultiClass::predict_multi_class( const CvMat* sample, 
cv::AutoBuffer<int>& out_votes,
const CvMat* missing ) const
{
int result = 0;
int k;

if( nclasses > 0 ) //classification
{
int max_nvotes = 0;
int* votes = out_votes;
memset( votes, 0, sizeof(*votes)*nclasses );
for( k = 0; k < ntrees; k++ )
{
CvDTreeNode* predicted_node = trees[k]->predict( sample, missing );
int nvotes;
int class_idx = predicted_node->class_idx;
CV_Assert( 0 <= class_idx && class_idx < nclasses );

nvotes = ++votes[class_idx];

}

result = ntrees;
}
else // regression
{
throw std::runtime_error(__FUNCTION__ "can only be used classification");
}

return result;
}

调用此函数后,我简单地根据每个类(class)收到的票数计算概率 (prob = out_votes[class_index]/result)。我认为这就是 OP 想要的(至少我是)。

关于c++ - 使用 OpenCV 随机森林,有什么方法可以获得分类的 "confidence"级别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10358964/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com