- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在尝试训练一个模型来预测文本输入数据的类别。当类的数量超过一定数量时,我在词袋上使用 pyspark.ml.classification.NaiveBayes
分类器时遇到了似乎是数值不稳定的问题。
在我的真实项目中,我有大约 10 亿条记录和大约 50 个类。我能够训练我的模型并做出预测,但是当我尝试使用 model.save()
保存它时出现错误。在操作上,这很烦人,因为我每次都必须从头开始重新训练我的模型。
在尝试调试时,我将数据缩小到大约 10k 行,并且在尝试保存时遇到了同样的问题。但是,如果我减少类标签的数量,保存效果很好。
这让我相信标签的数量是有限的。我无法重现我的确切问题,但下面的代码是相关的。如果我将 num_labels
设置为任何大于 31 的值,model.fit()
会抛出错误。
我的问题:
NaiveBayes
的mllib
实现中的类数是否有限制?创建一些虚拟数据。
我将使用 nltk.corpus.comparitive_sentences
和 nltk.corpus.sentence_polarity
。请记住,这只是一个带有无意义数据的说明性示例 - 我不关心拟合模型的性能。
import pandas as pd
from pyspark.sql.types import StringType
# create some dummy data
from nltk.corpus import comparative_sentences, sentence_polarity
df = pd.DataFrame(
{
'sentence': [" ".join(s) for s in cs.sents() + sp.sents()]
}
)
# assign a 'category' to each row
num_labels = 31 # seems to be the upper limit
df['category'] = (df.index%num_labels).astype(str)
# make it into a spark dataframe
spark_df = sqlCtx.createDataFrame(df)
数据准备管道
from pyspark.ml.feature import NGram, Tokenizer, StopWordsRemover
from pyspark.ml.feature import HashingTF, IDF, StringIndexer, VectorAssembler
from pyspark.ml import Pipeline
from pyspark.ml.linalg import Vector
indexer = StringIndexer(inputCol='category', outputCol='label')
tokenizer = Tokenizer(inputCol="sentence", outputCol="sentence_tokens")
remove_stop_words = StopWordsRemover(inputCol="sentence_tokens", outputCol="filtered")
unigrammer = NGram(n=1, inputCol="filtered", outputCol="tokens")
hashingTF = HashingTF(inputCol="tokens", outputCol="hashed_tokens")
idf = IDF(inputCol="hashed_tokens", outputCol="tf_idf_tokens")
clean_up = VectorAssembler(inputCols=['tf_idf_tokens'], outputCol='features')
data_prep_pipe = Pipeline(
stages=[indexer, tokenizer, remove_stop_words, unigrammer, hashingTF, idf, clean_up]
)
transformed = data_prep_pipe.fit(spark_df).transform(spark_df)
clean_data = transformed.select(['label','features'])
训练模型
from pyspark.ml.classification import NaiveBayes
nb = NaiveBayes()
(training,testing) = clean_data.randomSplit([0.7,0.3], seed=12345)
model = nb.fit(training)
test_results = model.transform(testing)
评估模型
from pyspark.ml.evaluation import MulticlassClassificationEvaluator
acc_eval = MulticlassClassificationEvaluator()
acc = acc_eval.evaluate(test_results)
print("Accuracy of model at predicting label was: {}".format(acc))
在我的机器上,打印出:
Accuracy of model at predicting label was: 0.0305764788269
错误信息
如果我将 num_labels
更改为 32 或更高,这就是我在调用 model.fit()
时遇到的错误:
Py4JJavaError: An error occurred while calling o1336.fit. : org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 86.0 failed 4 times, most recent failure: Lost task 0.3 in stage 86.0 (TID 1984, someserver.somecompany.net, executor 22): org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow. Available: 7, required: 8 Serialization trace: values (org.apache.spark.ml.linalg.DenseVector). To avoid this, increase spark.kryoserializer.buffer.max value. ... ... blah blah blah more java stuff that goes on forever
num_labels
> 15,就会发生错误。我想知道这也是 1 小于 2 的幂是否巧合。<model.theta
时也遇到了错误。 (我认为错误本身没有意义——它们只是从 java/scala 方法传回的异常。)最佳答案
硬限制:
特征数 * 类数必须小于 Integer.MAX_VALUE
(231 - 1)。您离这些值(value)还很远。
软限制:
Theta 矩阵(条件概率)的大小为特征数 * 类数。 Theta 在本地存储在驱动程序上(作为模型的一部分)并序列化并发送给工作人员。这意味着所有机器至少需要足够的内存来序列化或反序列化并存储结果。
由于您使用 HashingTF.numFeatures
的默认设置 (220),每个额外的类都会增加 262144 - 虽然不是很多,但加起来很快。根据您发布的部分回溯,看起来失败的组件是 Kryo 序列化程序。同样的回溯也提出了解决方案,即增加 spark.kryoserializer.buffer.max
。
您还可以通过设置尝试使用标准 Java 序列化:
spark.serializer org.apache.spark.serializer.JavaSerializer
由于您将 PySpark 与 pyspark.ml
和 pyspark.sql
一起使用,因此它可能是可以接受的,而不会造成显着的性能损失。
抛开配置不谈,我会专注于特征工程组件。将二进制 CountVetorizer
(参见下面关于 HashingTF
的注释)与 ChiSqSelector
一起使用可能会提供一种既提高可解释性又有效减少特征数量的方法。您还可以考虑更复杂的方法(确定特征重要性并仅在数据子集上应用朴素贝叶斯,更高级的文本处理,如词形还原/词干提取,或使用自动编码器的某些变体来获得更紧凑的向量表示)。
注意事项:
NaiveBayes
将在内部处理此问题,但为了清楚起见,我仍然建议使用 setBinary
。HashingTF
在这里毫无用处。撇开哈希冲突不谈,高度稀疏的特征和本质上无意义的特征使其成为 NaiveBayes
预处理步骤的不佳选择。关于python - mllib NaiveBayes 中的类数是否有限制?调用 model.save() 时出错,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48234474/
我正在使用 node.js 和 mocha 单元测试,并且希望能够通过 npm 运行测试命令。当我在测试文件夹中运行 Mocha 测试时,测试运行成功。但是,当我运行 npm test 时,测试给出了
我的文本区域中有这些标签 ..... 我正在尝试使用 replaceAll() String 方法替换它们 text.replaceAll("", ""); text.replaceAll("", "
早上好,我是 ZXing 的新手,当我运行我的应用程序时出现以下错误: 异常Ljava/lang/NoClassDefFoundError;初始化 ICOM/google/zxing/client/a
我正在制作一些哈希函数。 它的源代码是... #include #include #include int m_hash(char *input, size_t in_length, char
我正在尝试使用 Spritekit 在 Swift 中编写游戏。目的是带着他的角色迎面而来的矩形逃跑。现在我在 SKPhysicsContactDelegate (didBegin ()) 方法中犯了
我正在尝试创建一个用于导入 CSV 文件的按钮,但出现此错误: actionPerformed(java.awt.event.ActionEvent) in cannot implement
请看下面的代码 public List getNames() { List names = new ArrayList(); try { createConnection(); Sta
我正在尝试添加一个事件以在“dealsArchive”表中创建一个条目,然后从“deals”表中删除该条目。它需要在特定时间执行。 这是我正在尝试使用的: DELIMITER $$ CREATE EV
我试图将两个存储过程的表结果存储到 phpmyadmin 例程窗口中的单个表中,这给了我 mariadb 语法错误。单独调用存储过程给出了结果。 存储过程代码 BEGIN CREATE TABLE t
我想在 videoview 中加载视频之前有一个进度条。但是我收到以下错误。我还添加了所有必要的导入。 我在 ANDROID 中使用 AIDE 这是我的代码 public class MainActi
我已经使用了 AsyncTask,但我不明白为什么在我的设备 (OS 4.0) 上测试时仍然出现错误。我的 apk 构建于 2.3.3 中。我想我把代码弄错了,但我不知道我的错误在哪里。任何人都请帮助
我在测试 friend 网站的安全性时,通过在 URL 末尾添加 ' 发现了 SQL 注入(inject)漏洞该网站是用zend框架构建的我遇到的问题是 MySQL -- 中的注释语法不起作用,因此页
我正在尝试使用堆栈溢出答案之一的交互式信息窗口。 链接如下: interactive infowindow 但是我在代码中使用 getMap() 时遇到错误。虽然我尝试使用 getMapAsync 但
当我编译以下代码时出现错误: The method addMouseListener(Player) is undefined for the type Player 代码: import java.
我是 Android 开发的初学者。我正在开发一个接收 MySql 数据然后将其保存在 SQLite 中的应用程序。 我将 Json 用于同步状态,以便我可以将未同步数据的数量显示为要同步的待处理数据
(这里是Hello world级别的自动化测试人员) 我正在尝试下载一个文件并将其重命名以便于查找。我收到一个错误....这是代码 @Test public void allDownload(
我只是在写另一个程序。并使用: while (cin) words.push_back(s); words是string的vector,s是string。 我的 RAM 使用量在 4 或 5
我是 AngularJS 的新手,我遇到了一个问题。我有一个带有提交按钮的页面,当我单击提交模式时必须打开并且来自 URL 的数据必须存在于模式中。现在,模式打开但它是空的并且没有从 URL 获取数据
我正在尝试读取一个文件(它可以包含任意数量的随机数字,但不会超过 500 个)并将其放入一个数组中。 稍后我将需要使用数组来做很多事情。 但到目前为止,这一小段代码给了我 no match for o
有些人在使用 make 命令进行编译时遇到了问题,所以我想我应该在这里尝试一下,我已经在以下操作系统的 ubuntu 32 位和挤压 64 位上尝试过 我克隆了 git 项目 https://gith
我是一名优秀的程序员,十分优秀!