- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
如果耐心达到我设置的数字,我希望分类器运行得更快并早点停止。在下面的代码中,它进行了 10 次拟合模型的迭代。
import numpy
import pandas
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import Dropout
from keras.wrappers.scikit_learn import KerasClassifier
from keras.callbacks import EarlyStopping, ModelCheckpoint
from keras.constraints import maxnorm
from keras.optimizers import SGD
from sklearn.model_selection import cross_val_score
from sklearn.preprocessing import LabelEncoder
from sklearn.model_selection import StratifiedKFold
from sklearn.preprocessing import StandardScaler
from sklearn.pipeline import Pipeline
# fix random seed for reproducibility
seed = 7
numpy.random.seed(seed)
# load dataset
dataframe = pandas.read_csv("sonar.csv", header=None)
dataset = dataframe.values
# split into input (X) and output (Y) variables
X = dataset[:,0:60].astype(float)
Y = dataset[:,60]
# encode class values as integers
encoder = LabelEncoder()
encoder.fit(Y)
encoded_Y = encoder.transform(Y)
calls=[EarlyStopping(monitor='acc', patience=10), ModelCheckpoint('C:/Users/Nick/Data Science/model', monitor='acc', save_best_only=True, mode='auto', period=1)]
def create_baseline():
# create model
model = Sequential()
model.add(Dropout(0.2, input_shape=(33,)))
model.add(Dense(33, init='normal', activation='relu', W_constraint=maxnorm(3)))
model.add(Dense(16, init='normal', activation='relu', W_constraint=maxnorm(3)))
model.add(Dense(122, init='normal', activation='softmax'))
# Compile model
sgd = SGD(lr=0.1, momentum=0.8, decay=0.0, nesterov=False)
model.compile(loss='categorical_crossentropy', optimizer=sgd, metrics=['accuracy'])
return model
numpy.random.seed(seed)
estimators = []
estimators.append(('standardize', StandardScaler()))
estimators.append(('mlp', KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=0, callbacks=calls)))
pipeline = Pipeline(estimators)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold)
print("Baseline: %.2f%% (%.2f%%)" % (results.mean()*100, results.std()*100))
RuntimeError: Cannot clone object <keras.wrappers.scikit_learn.KerasClassifier object at 0x000000001D691438>, as the constructor does not seem to set parameter callbacks
numpy.random.seed(seed)
estimators = []
estimators.append(('standardize', StandardScaler()))
estimators.append(('mlp', KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=0, callbacks=calls)))
pipeline = Pipeline(estimators)
kfold = StratifiedKFold(n_splits=10, shuffle=True, random_state=seed)
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold, fit_params={'callbacks':calls})
print("Baseline: %.2f%% (%.2f%%)" % (results.mean()*100, results.std()*100))
ValueError: need more than 1 value to unpack
model.fit()
代码中的任何地方。也需要永远适应。
fit()
操作发生在
results = cross_val_score(...)
并且没有参数可以在那里抛出回调。
最佳答案
阅读from here ,这是 KerasClassifier 的源代码,您可以将 fit 的参数传递给它,它们应该被使用。
我没有你的数据集,所以我无法测试它,但你可以告诉我这是否有效,如果无效,我会尝试调整解决方案。改变这一行:
estimators.append(('mlp', KerasClassifier(build_fn=create_baseline, nb_epoch=300, batch_size=16, verbose=0, callbacks=[...your_callbacks...])))
fit
获取所有可能的参数,
predict
,
score
并在调用每个方法时相应地使用它们。他们制作了一个函数,用于过滤应进入上述每个可在管道中调用的函数的参数。
fit
和
predict
StratifiedKFold
内部调用每次都在不同的分组上进行训练。
fit
将所有参数赋予 KerasClassifier
(300 个时代和批量大小 = 16)。它对 9/10 的数据进行训练,并使用 1/10 作为验证。 X = dataset[:,:60].astype(float)
model.add(Dropout(0.2, input_shape=(33,)))
model.add(Dropout(0.2, input_shape=(60,)))
binary_crossentropy
) 更改为 categorical_crossentropy
.但是你没有改变你的 Y 数组。因此,要么在您的数据准备中执行此操作:from keras.utils.np_utils import to_categorical
encoded_Y = to_categorical(encoder.transform(Y))
binary_crossentropy
. model.add(Dense(2, init='normal', activation='softmax'))
categorical_crossentropy
, 或者model.add(Dense(1, init='normal', activation='sigmoid'))
binary_crossentropy
. fit_params=whatever
在
cross_val_score()
函数,您将这些参数提供给管道。为了知道您想将这些参数发送到管道的哪一部分,您必须像这样指定它:
fit_params={'mlp__callbacks':calls}
'callbacks'.split('__', 1)
成 2 个值。它实际上是在寻找应用它的管道步骤的名称。
results = cross_val_score(pipeline, X, encoded_Y, cv=kfold, fit_params={'mlp__callbacks':calls})
create_baseline()
函数从头开始重新创建模型 10 次,并在数据集的不同部分训练 10 次。所以它没有像你说的那样做 epochs,它做了 10 次 300 epochs。
fit()
方法在不同的模型上应用了 10 次,因此,回调也应用了 10 次不同的时间和由
ModelCheckpoint()
保存的文件。被覆盖,你会发现自己只有上次运行的最佳模型。
关于python - 我可以向 KerasClassifier 发送回调吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42492824/
我有十几个预训练的 DNN,我希望将它们添加到 sklearn 集成中。问题是我似乎无法为 KerasClassifier 提供预训练模型。 classifier_models = [] # mode
我正在尝试使用 scikit-learn 进行网格搜索RandomizedSearchCV 函数与 Keras 一起使用KerasClassifier 不平衡多类分类问题的包装器。但是,当我尝试将 c
我正在尝试使用 KerasClassifier 包装器来制作我的工作流程对 scikit 友好。但是,当我尝试将它与以下功能一起使用时,它给出一个错误;使用原生 Keras 模型 fit() 训练模型
我正在尝试使用 KerasClassifier 包装器来制作我的工作流程对 scikit 友好。但是,当我尝试将它与以下功能一起使用时,它给出一个错误;使用原生 Keras 模型 fit() 训练模型
这个问题已经有答案了: How to pass a parameter to Scikit-Learn Keras model function (3 个回答) 已关闭 4 年前。 我正在尝试在 Ke
如果耐心达到我设置的数字,我希望分类器运行得更快并早点停止。在下面的代码中,它进行了 10 次拟合模型的迭代。 import numpy import pandas from keras.models
我正在使用 keras 进行流失预测。我使用了 Sklearn 的列转换器。我的代码是—— import keras from keras.models import Sequential from
目标是在具有多个输入的 Keras 模型上执行交叉验证。这适用于只有一个输入的正常顺序模型。但是,当使用功能 api 并扩展到两个输入时,sklearns cross_val_score 似乎无法按预
我有一个binary classification我需要根据2010-2015期间的客户互动来预测 future 潜在的流行/流行产品的问题. 目前,我的数据集包括1000 products每个产品都
我在最后使用带有 KerasClassfier 的 Sci-kit 学习管道。分类器将加载经过训练的模型进行预测。但是在将分类器添加到管道后(总共 3 个组件),我在调用 pipeline.predi
我想尝试测试一些超参数,那就是我想使用 GridSearchCV,因为这似乎就是这样做的方法。 但我也想使用验证拆分。使用像 EarlyStopping 或/和 ReduceLROnPlateau 这
我正在 Keras 模型上使用 sklearn 执行超参数调整优化 (hyperopt) 任务。我正在尝试使用 Sklearn 交叉验证来优化 KerasClassifiers,一些代码如下: def
这是代码,我只在最后一行得到错误,即 y_pred = classifier.predict(X_test)。我得到的错误是 AttributeError: 'KerasClassifier' obj
有人请澄清为什么我收到以下代码的属性错误? from sklearn.model_selection import cross_val_score from keras.models import S
以下代码抛出错误:类型错误:无法pickle _thread.lock对象 我可以看到这可能与将先前的方法作为 def fit(self, c_m) 中的函数传递有关。但我认为通过文档这是正确的:ht
我最初尝试了相同的方法并遇到了与 this SO questioner 相同的错误.但是,使用那里接受的(也是唯一的)答案给了我另一个错误:“input_dim 不是合法参数。” 然后我尝试在原始问题
import pandas as pd import numpy as np import matplotlib.pyplot as plt dataset = pd.read_csv("Churn_
我创建了一个 sklearn 管道,该管道使用 SelectPercentile(f_classif) 进行特征选择并通过管道传输到 KerasClassifier。用于 SelectPercenti
这是关于 TF 2.0。 请在我的代码下方找到使用 sklearn.model_selection.GridSearchCV 执行 GridSearch 和交叉验证的代码对于完美运行的 mnist 数
我有这个示例代码,它只能在 n_jobs=1 下运行。 Tensorflow 后端在 GPU 上运行。 当我在 cross_val_score 方法上使用 n_jobs=-1 运行时,程序卡住/停止工
我是一名优秀的程序员,十分优秀!