- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在使用 MALLET 来训练 ParallelTopicModel。训练后,我得到一个 TopicInferencer,取一个句子,通过推理器运行 15 次,然后检查结果。我发现对于某些主题,每次的估计都不同,而且根本不一致。
例如,对于 20 个主题,这是我针对同一句子获得的估计主题概率的输出:
[0.004888044738437717, 0.2961123293878907, 0.0023192114841146965, 0.003828168015645214, 0.3838058036596986, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.08833215086412127, 0.028410939897698755, 0.007213888668919175, 0.002902815632169611, 0.03362813995020485, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.26812948669964976, 0.0023192114841146965, 0.0038281680156452146, 0.35582296097145744, 0.002313049063676805, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.09765976509353493, 0.028410939897698755, 0.007213888668919175, 0.002902815632169611, 0.052283368409032215, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.2681294866996498, 0.0023192114841146965, 0.003828168015645214, 0.3931334178891125, 0.002313049063676805, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839043, 0.0019749423390935396, 0.002792447952547967, 0.018537939424381665, 0.09765976509353493, 0.03773855412711243, 0.007213888668919175, 0.0029028156321696105, 0.024300525720791197, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.2588018724702361, 0.0023192114841146965, 0.0038281680156452146, 0.3278401182832166, 0.002313049063676805, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.06967692240529397, 0.028410939897698755, 0.007213888668919175, 0.002902815632169611, 0.03362813995020485, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.2681294866996498, 0.0023192114841146965, 0.0038281680156452146, 0.5143924028714901, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.08833215086412126, 0.028410939897698755, 0.007213888668919175, 0.002902815632169611, 0.014972911491377543, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.20283618709375414, 0.0023192114841146965, 0.0038281680156452146, 0.29985727559497544, 0.0023130490636768045, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.11631499355236223, 0.028410939897698752, 0.007213888668919175, 0.002902815632169611, 0.024300525720791197, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437716, 0.43602654282909553, 0.0023192114841146965, 0.0038281680156452146, 0.2998572755949755, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.09765976509353493, 0.03773855412711241, 0.007213888668919175, 0.002902815632169611, 0.03362813995020485, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.07224958788196291, 0.0023192114841146965, 0.0038281680156452146, 0.3278401182832165, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.08833215086412129, 0.028410939897698755, 0.007213888668919175, 0.002902815632169611, 0.04295575417961857, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.2588018724702361, 0.0023192114841146965, 0.0038281680156452146, 0.4490991032655942, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.08833215086412127, 0.028410939897698755, 0.007213888668919175, 0.002902815632169611, 0.07093859686785953, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.24014664401140884, 0.0023192114841146965, 0.0038281680156452146, 0.26254681867732077, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.018537939424381665, 0.06967692240529395, 0.05639378258593975, 0.007213888668919175, 0.002902815632169611, 0.03362813995020485, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.2588018724702361, 0.0023192114841146965, 0.0038281680156452146, 0.3744781894302849, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.06967692240529398, 0.047066168356526085, 0.007213888668919175, 0.002902815632169611, 0.06161098263844586, 0.0085078656328731, 0.0071022047541209835, 0.012203497697416594]
[0.004888044738437717, 0.2681294866996498, 0.0023192114841146965, 0.0038281680156452146, 0.32784011828321646, 0.002313049063676805, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.08833215086412127, 0.03773855412711243, 0.007213888668919175, 0.002902815632169611, 0.024300525720791197, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.10956004479961755, 0.0023192114841146965, 0.0038281680156452146, 0.3838058036596989, 0.002313049063676805, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.018537939424381665, 0.11631499355236223, 0.03773855412711243, 0.007213888668919175, 0.002902815632169611, 0.03362813995020485, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437717, 0.25880187247023617, 0.0023192114841146965, 0.0038281680156452146, 0.28120204713614816, 0.002313049063676805, 0.007598391273477824, 0.019202573922429175, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.09765976509353493, 0.03773855412711241, 0.007213888668919175, 0.002902815632169611, 0.08959382532668683, 0.0085078656328731, 0.0071022047541209835, 0.0028758834680029416]
[0.004888044738437716, 0.2214914155525815, 0.0023192114841146965, 0.0038281680156452146, 0.37447818943028494, 0.002313049063676805, 0.007598391273477824, 0.009874959693015517, 0.0030322960351839047, 0.0019749423390935396, 0.002792447952547967, 0.01853793942438167, 0.07900453663470762, 0.03773855412711243, 0.007213888668919175, 0.002902815632169611, 0.03362813995020485, 0.0085078656328731, 0.007102204754120983, 0.0028758834680029416]
正如您所看到的,有几列非常不一致。为什么会这样,有没有办法防止这种情况发生?我将分布用作另一个机器学习模型的特征,并且这些不一致使我的另一个模型无法使用。
我的代码:
ldaModel = new ParallelTopicModel(numTopics, alphaSum, beta);
instances = new InstanceList(new SerialPipes(pipeList));
for (int i = 0; i < data.length; i++) {
String dataPt = data[i];
Instance dataPtInstance = new Instance(dataPt, null, null, dataPt);
instances.addThruPipe(dataPtInstance);
}
ldaModel.addInstances(instances);
ldaModel.setNumThreads(numThreads);
ldaModel.setNumIterations(numIterations);
try {
ldaModel.setRandomSeed(DEFAULT_SEED);
ldaModel.estimate();
inferencer = ldaModel.getInferencer();
} catch (IOException e) {
System.out.println(e);
}
String dataPt = "This is a test sentence.";
Instance dataPtInstance = new Instance(dataPt, null, null, dataPt);
InstanceList testList = new InstanceList(new SerialPipes(pipeList));
testList.addThruPipe(dataPtInstance);
double[] prob = inferencer.getSampledDistribution(testList.get(0), testIterations, thinIterations, burnInIterations);
最佳答案
我相信我已经明白原因了。由于吉布斯采样,用于估计的采样输出不能保证每次都相同。解决这个问题的一种方法是进行 0 次采样迭代。
关于java - MALLET 主题建模 : Inconsistent Estimations,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31039584/
我想使用 --use-ngrams true 选项运行 mallet,但似乎无法正常工作。 bin\mallet import-file --input ovary.txt --output ovar
这是我第一次使用槌 LDA。基本上,我下载了 mallet-2.0.8 zip 文件和 JDK。我安装了 JDK,将 mallet-2.0.8 提取到目标文件夹。我设置了 MALLET_HOME。这是
我尝试使用 Java 中的 Mallet 实现文档分类器。我已经有一个基本包含特征值的文件。所以我不想运行整个 raw text 处理管道。 目前我的特征文件中的一行看起来像这样(2 个特征,ID 和
我使用的是 Windows 7。我安装了 Mallet,当我进入 Mallet 目录时它运行得很好。但是,我正在使用一些调用它的 python 软件( https://github.com/uwgra
我正在使用 CRF 在 Mallet 上开发一个 NER 系统。 您知道是否可以收集每个预测的特征贡献吗?我需要知道并理解 CRF 模型的精确行为。 有什么建议吗? 谢谢。 干杯,乌克兰 最佳答案 是
我正在寻找有人写/知道MALLET类的详细信息。我知道这是解决ML问题的好工具,现在我尝试实现此处Andrew McCallum, Kedar Bellare and Fernando Pereira
我正在使用 MALLET 进行主题分析,它在几千行和一百左右行的文本文件(“topics.txt”)中输出结果,其中每行由制表符分隔的变量组成,如下所示: Num1 text1 topic1 prop
我已经有一个使用 SimpleTagger 训练过的 CRF 训练模型。 SimpleTagger.main(new String[] { "--tra
老实说,我对 LDA 并不熟悉,但我的一个项目需要使用 MALLET 的主题建模。 我的问题是:给定特定时间戳内的一组文档作为主题模型的训练数据,使用模型(使用推理器)来跟踪主题趋势是否合适,对于文档
我使用 MALLET 进行主题建模。 http://mallet.cs.umass.edu/topics.php 首先,我尝试按照说明导入培训文档集。 bin/mallet import-dir --
MALLET 在训练主题模型时使用 --output-doc-topics 参数生成一个制表符分隔的文件,其中包含每个文档的主题分布。它看起来像这样: doc# filename topi
我用 Mallet 训练了 maxent 文档分类模型,结果是 130MB,这对于我希望运行它的实例来说太大了。我想知道是否有一种方法可以潜在地减少模型的词汇量,从而减少整体模型的大小。有管道可以做到
我正在使用 mallet 库进行主题建模。我的数据集位于 filePath 路径中,并且 csvIterator 似乎可以读取数据,因为 model.getData() 有大约 27000 行,等于我
我使用 Java-Mallet API 通过 LDA 进行主题建模。 API 产生以下结果:主题:关键字1(计数)、关键字2(计数) 例如 主题 0:文件 (12423)、测试 (3123) ...主
我正在尝试运行 Mallet 的主题建模,但出现以下错误: Couldn't open cc.mallet.util.MalletLogger resources/logging.properties
我有一个格式如下的 csv 文件 产品名称,产品评论 现在使用 mallet 我必须训练分类器,以便如果输入包含产品评论的测试数据集,它应该告诉我特定评论属于哪个产品 mallet java api
我正在尝试将 mallet 包合并到我的 java 代码中以完成我的序列标记任务。但是,我不太确定我应该如何仅根据 mallet 网站上的数据导入指南进行操作。谁能帮我解决这个问题? 我的第一个问题是
我正在查看 Mallet 源代码,似乎大多数分类器实现(例如朴素贝叶斯)并没有真正考虑到功能选择,即使 InstanceList 类具有setFeatureSelection 方法。 现在我想对我的数
有人有幸加载过之前训练过的模型吗?翻阅其API ,CRFWriter类是拼图的1/2,但是你到底如何CRFRead(类不存在) 感谢您的帮助。 最佳答案 根据您使用的训练器,您应该能够将对象转换为 C
我正在尝试使用 Mallet 2.0.7 执行 LDA 主题建模。从训练类(class)的输出来看,我可以训练 LDA 模型并获得良好的结果。此外,我可以使用该过程中内置的推理器,并在重新处理我的训练
我是一名优秀的程序员,十分优秀!