gpt4 book ai didi

java - 当我用Stanford CoreNLP重新训练情感模型并与相关论文的结果进行比较时,我得到了不同的结果

转载 作者:太空宇宙 更新时间:2023-11-04 12:51:38 25 4
gpt4 key购买 nike

我下载了 stanford-corenlp-full-2015-12-09。我使用以下命令创建了一个训练模型:

 java -mx8g edu.stanford.nlp.sentiment.SentimentTraining -numHid 25 -trainPath train.txt -devPath dev.txt -train -model model.ser.gz

当我完成训练后,我发现我的目录中有很多文件。 the model list

然后我使用了包中的评估工具,并运行了如下代码:

java -cp * edu.stanford.nlp.sentiment.Evaluate -model model-0024-79.82.ser.gz -treebank test.txt

test.txt 来自trainDevTestTrees_PTB.zip。这是代码的结果:

F:\trainDevTestTrees_PTB\trees>java -cp * edu.stanford.nlp.sentiment.Evaluate -model model-0024-79.82.ser.gz -treebank test.txt
EVALUATION SUMMARY
Tested 82600 labels
65331 correct
17269 incorrect
0.790932 accuracy
Tested 2210 roots
890 correct
1320 incorrect
0.402715 accuracy
Label confusion matrix
Guess/Gold 0 1 2 3 4 Marg. (Guess)
0 551 340 87 32 6 1016
1 956 5348 2476 686 191 9657
2 354 2812 51386 3097 467 58116
3 146 744 2525 6804 1885 12104
4 1 11 74 379 1242 1707
Marg. (Gold) 2008 9255 56548 10998 3791

0 prec=0.54232, recall=0.2744, spec=0.99423, f1=0.36442
1 prec=0.5538, recall=0.57785, spec=0.94125, f1=0.56557
2 prec=0.8842, recall=0.90871, spec=0.74167, f1=0.89629
3 prec=0.56213, recall=0.61866, spec=0.92598, f1=0.58904
4 prec=0.72759, recall=0.32762, spec=0.9941, f1=0.4518

Root label confusion matrix
Guess/Gold 0 1 2 3 4 Marg. (Guess)
0 50 60 12 9 3 134
1 161 370 147 94 36 808
2 31 103 102 60 32 328
3 36 97 123 305 265 826
4 1 3 5 42 63 114
Marg. (Gold) 279 633 389 510 399

0 prec=0.37313, recall=0.17921, spec=0.9565, f1=0.24213
1 prec=0.45792, recall=0.58452, spec=0.72226, f1=0.51353
2 prec=0.31098, recall=0.26221, spec=0.87589, f1=0.28452
3 prec=0.36925, recall=0.59804, spec=0.69353, f1=0.45659
4 prec=0.55263, recall=0.15789, spec=0.97184, f1=0.24561

Approximate Negative label accuracy: 0.638817
Approximate Positive label accuracy: 0.697140
Combined approximate label accuracy: 0.671925
Approximate Negative root label accuracy: 0.702851
Approximate Positive root label accuracy: 0.742574
Combined approximate root label accuracy: 0.722680

细粒度和正/负的准确度与论文“Socher, R., Perelygin, A., Wu, J.Y., Chuang, J., Manning, C.D., Ng, A.Y. and Potts, C., 2013, October. Recursive deep models foreseompositionality over a情感树库。自然语言处理经验方法 session 记录 (EMNLP) (Vol. 1)”有很大不同631,第 1642 页)。论文指出细粒度和正/负的准确率比我的要高。 The records in the paper

我的操作有问题吗?为什么我的结果与论文不同?

最佳答案

简短的回答是,这篇论文使用了用 Matlab 编写的不同系统。 Java系统与论文不符。尽管我们确实分发了使用英文模型 jar 在 Matlab 中训练的二进制模型。因此,您可以使用斯坦福 CoreNLP 运行二进制模型,但此时您无法使用斯坦福 CoreNLP 训练具有相似性能的二进制模型。

关于java - 当我用Stanford CoreNLP重新训练情感模型并与相关论文的结果进行比较时,我得到了不同的结果,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35778325/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com