- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我在 Jupyter Notebook 中使用 Keras 2.0.8 和 Python 3 内核。我的后端是 TensorFlow 1.3,我在 Mac 上开发。
每当我使用 fit_generator() 时,我都会收到以下警告:
/Users/username/anaconda/envs/tensorflow/lib/python3.6/site-packages/ipykernel/main.py:5: UserWarning: The semantics of the Keras 2 argument
steps_per_epoch
is not the same as the Keras 1 argumentsamples_per_epoch
.steps_per_epoch
is the number of batches to draw from the generator at each epoch. Basically steps_per_epoch = samples_per_epoch/batch_size. Similarlynb_val_samples
->validation_steps
andval_samples
->steps
arguments have changed. Update your method calls accordingly. /Users/username/anaconda/envs/tensorflow/lib/python3.6/site-packages/ipykernel/main.py:5: UserWarning: Update yourfit_generator
call to the Keras 2 API:fit_generator(<keras.pre..., steps_per_epoch=60000, validation_data=<keras.pre..., epochs=1, validation_steps=10000)
下面是我的模型的代码(简单的 MNIST 线性分类器,但我使用的每个模型都会收到此警告):
model = Sequential([
Lambda(normalize_input, input_shape=(1, 28, 28)),
Flatten(),
Dense(10, activation='softmax')
])
model.compile(Adam(),
loss='categorical_crossentropy',
metrics=['accuracy'])
这是我的 fit_generator() 调用:
model.fit_generator(batches,
steps_per_epoch=steps_per_epoch,
nb_epoch=1,
validation_data=test_batches,
nb_val_samples=test_batches.n)
我明白这个警告告诉我的意思。这对我来说不是问题。我怎样才能摆脱它?
最佳答案
如果您的函数调用中存在任何 Keras 1.0 关键字,则会出现此警告。通过将 nb_epoch
替换为 epochs
并将 nb_val_samples
替换为 validation_steps
来更新您的函数调用。
关于python - Keras 2 fit_generator 用户警告 : `steps_per_epoch` is not the same as the Keras 1 argument `samples_per_epoch` ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46314003/
我被这个问题困扰了好几天... 我的问题是,为什么训练时间之间有如此大的差异,以至于我将生成器的batch_size设置为“1”和“20”。 如果将 batch_size 设置为 1 ,则 1个时期的
我有大约 6200 张训练图像,我想使用 keras.preprocessing.image.ImageDataGenerator 类的 flow(X, y) 方法来扩充小图像数据集如下: train
定义每个时期的样本 = 233 和 nb_val_samples = 62 和时期 = 4 然后我得到错误 Type-error: fit_generator() got an unexpected
我创建了一个简单的猫狗图像分类(卷积神经网络)。拥有每类 7,000 个训练数据和每类 5,500 个验证数据。 我的问题是我的系统没有完成所有时期。如果有人可以解释选择 nb_epoch、sampl
我正在使用 Keras 和 Theano 来训练基本的逻辑回归模型。 假设我有一个包含 100 万个条目的训练集,它对于我的系统来说太大了,无法在不耗尽内存的情况下使用标准的 model.fit()。
我在 Jupyter Notebook 中使用 Keras 2.0.8 和 Python 3 内核。我的后端是 TensorFlow 1.3,我在 Mac 上开发。 每当我使用 fit_generat
我是一名优秀的程序员,十分优秀!