gpt4 book ai didi

r - 使用 R 计算分类评级但在公差范围内的科恩 Kappa?

转载 作者:行者123 更新时间:2023-12-05 00:30:22 25 4
gpt4 key购买 nike

我有来自 2 个独立评分者的一系列评分(分类至少有 12 个级别)。我想计算评估者间的可靠性,但允许一个级别的差异。 IE。级别 1 和级别 2 将被视为一致,但级别 1 和级别 3 不会。我不想使用相关系数之类的度量,因为重要的是要知道评级是否在 1 级差异内。这可以做到吗?

编辑以包含样本数据:每个单元格代表分配 A-E 评级的评估者数量(最大 = 2)

structure(list(A = c(2, 2, 0, 0, 0,0,0,0,0), B = c(0,0,0,0,1,0,1,0,2), C = c(0,0,0,0,1,0,0,2,0), D=c(0,0,2,0,0,2,1,0,0), E=c(0,0,0,2,0,0,0,0,0)),row.names = c(NA,9L), class = "data.frame")

最佳答案

好的,我不确定这是否适合你,但我认为它会达到目标。基本上,您需要在不同的协议(protocol)标准下找到评估者之间的协议(protocol)。这真的没什么大不了的。基本上,就 Cohen 的 kappa 而言,评估者要么同意,要么不同意。

从制作样本数据开始:

testdata <- structure(list(A=c(2,2,0,0,0,0,0,0,0),
B=c(0,0,0,0,1,0,1,0,2),
C=c(0,0,0,0,1,0,0,2,0),
D=c(0,0,2,0,0,2,1,0,0),
E=c(0,0,0,2,0,0,0,0,0)),
row.names = c(NA,9L),
class = "data.frame")

对于 kappa 的计算,我们将使用 irr包裹:
library(irr)
kappa2 irr中的函数采用 2*n 数据框或矩阵并返回计算结果。您的数据格式不同,因此我们需要将其转换为 kappa2可以处理。如果你已经有了这种格式,它会容易得多。

首先,我首先创建一个新的数据框来接收重组后的结果。
new_testdata <- data.frame(R1="",R2="",stringsAsFactors=FALSE)

现在,一个简单的循环转到每一行并返回一个向量,其中包含每个评分者的评分。显然,这不是分配的实际评级。此处的代码只是假设第一个评分者的评分总是高于第二个评分者。在这种特殊情况下无关紧要,因为我们只关心协议(protocol),但我希望您拥有完整的数据。
for(x in 1:dim(testdata)[1]) {
new_testdata <- rbind(new_testdata,rep(names(testdata),testdata[x,]))
}
rm(x)
new_testdata <- new_testdata[-1,] # Drop first, empty column

现在,我们可以获得正则 kappa。
kappa2(ratings=new_testdata)

Cohen's Kappa for 2 Raters (Weights: unweighted)

Subjects = 9
Raters = 2
Kappa = 0.723

z = 4.56
p-value = 5.23e-06

现在,您想要一个不同的 kappa,其中一个级别的分歧不会被计入问题。那没问题;基本上,您需要做的是转换 new_testdata 中的内容成同意或不同意的二进制表示。在这种情况下,它不应该影响 kappa。 (但是,如果您的评估者只有两个级别可供选择,则会影响 kappa;这将人为地限制该值)。

首先,让我们创建一个将字母转换为数字的表格。这将使我们的生活更轻松。
convtable <- data.frame(old=c("A","B","C","D","E"),
new=c(1,2,3,4,5),
stringsAsFactors=FALSE)

现在,我们可以使用它将 new_testdata 中的值转换为数字表示。
new_testdata$R1 <- convtable$new[match(new_testdata$R1,convtable$old)]
new_testdata$R2 <- convtable$new[match(new_testdata$R2,convtable$old)]

我们可以通过仅取两列之间的差异来轻松检查是否一致。
new_testdata$diff <- abs(new_testdata$R1-new_testdata$R2)

然后,只需将 R1 和 R2 重新编码为 1 和 1 用于满足您的协议(protocol)标准(小于或等于两个评级之间的差异级别)的地方,否则为 1 和 0(或 0 和 1)。
new_testdata[new_testdata$diff<=1,c("R1","R2")] <- c(1,1)
new_testdata[new_testdata$diff>1,c("R1","R2")] <- c(1,0)
new_testdata <- new_testdata[1:2] # Drop the difference variable

现在,再次运行您的 kappa。
kappa2(ratings=new_testdata)

Cohen's Kappa for 2 Raters (Weights: unweighted)

Subjects = 9
Raters = 2
Kappa = 0

z = NaN
p-value = NaN

哇,怎么了?嗯,你给我的数据在使用 +/- 1 水平时基本上是完全一致的。有一些 methodological issues that can occur when对二元响应变量执行 kappa,如我链接的 CrossValidated 帖子中所示。如果您的数据不如样本数据“均匀”,那么您应该得到一个真正的 kappa 值,而不是像那个那样的异常零。但是,这更像是一个方法问题,您可能需要在 CrossValidated 上进行后续跟进。

关于r - 使用 R 计算分类评级但在公差范围内的科恩 Kappa?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16151911/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com