- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我已经在 Keras 中训练了多个模型。我的训练集中有 39、592 个样本,验证集中有 9、899 个样本。我使用的批量大小为 2。
当我检查我的代码时,我突然想到我的生成器可能丢失了一些批处理的数据。
这是我的生成器的代码:
train_datagen = ImageDataGenerator(
rescale=1. / 255,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True)
val_datagen = ImageDataGenerator(rescale=1. / 255)
train_generator = train_datagen.flow_from_directory(
train_dir,
target_size=(224, 224)
batch_size=batch_size,
class_mode='categorical')
validation_generator = val_datagen.flow_from_directory(
val_dir,
target_size=(224, 224),
batch_size=batch_size,
class_mode='categorical')
我四处搜索以查看我的生成器的行为方式,并找到了这个答案: what if steps_per_epoch does not fit into numbers of samples?
我用这种方式计算了我的 steps_per_epoch 和 validation_steps:
steps_per_epoch = int(number_of_train_samples / batch_size)
val_steps = int(number_of_val_samples / batch_size)
使用此链接中的代码以及我自己的批量大小和样本数量,我得到了这些结果:train_generator 的“缺少最后一批”和 val_generator 的“奇怪行为”。
恐怕我必须重新训练我的模型。我应该为 steps_per_epoch 和 validation_steps 选择什么值?有没有办法为这些变量使用精确值(除了将 batch_size 设置为 1 或删除一些样本)?我还有其他几个样本数量不同的模型,我认为它们都缺少一些批处理。任何帮助将非常感激。
两个相关问题:
1- 关于我已经训练过的模型,它们是否可靠且训练得当?
2- 如果我使用以下值设置这些变量会发生什么:
steps_per_epoch = np.ceil(number_of_train_samples / batch_size)
val_steps = np.ceil(number_of_val_samples / batch_size)
在训练和验证期间,我的模型是否会在每个时期多次看到某些图像?还是这是我的问题的解决方案?!
最佳答案
由于 Keras 数据生成器旨在无限循环,steps_per_epoch
指示您将在单个纪元内从生成器中获取新批处理的次数。因此,如果您简单地采用 steps_per_epoch = int(number_of_train_samples/batch_size)
,您最后一批的项目将少于 batch_size
并将被丢弃。但是,在您的情况下,每个训练时期丢失 1 张图像并不是什么大问题。验证步骤也是如此。总结一下:您的模型 [几乎 :)] 训练正确,因为丢失的元素数量很少。
对应实现ImageDataGenerator
https://keras.io/preprocessing/image/#imagedatagenerator-class如果您的步数大于预期,在达到最大样本数后,您将从头开始接收新批处理,因为您的数据已循环。在您的情况下,如果 steps_per_epoch = np.ceil(number_of_train_samples/batch_size)
您将在每个时期收到一个额外的批处理,其中包含重复的图像。
关于python - 如何在 Keras 中正确设置 steps_per_epoch 和 validation_steps?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51885739/
我正在阅读《Python 中的深度学习》一书,想更多地了解定义 steps_per_epoch 和 batch size 时会发生什么。他们使用的示例包含 4000 张狗和猫的图像,其中 2000 张
我正在尝试使用这个 Google 的示例,但使用我自己的数据集: https://github.com/tensorflow/examples/blob/master/tensorflow_examp
我是深度学习的新手。我有一个基本的疑问。这对你来说可能听起来很愚蠢。 我正在研究从卫星图像中提取道路。我只有 1080 个样本图像。这就是我应用数据增强的原因。 以下是数据增强的代码 aug = Im
当我训练我的自动驾驶汽车模型时,它在第一个时期给我错误。尽管当我减小 batch_size 时它工作正常。但这并没有给我想要的准确性。 我正在 Google Collab 中训练我的模型。 tenso
当我训练我的自动驾驶汽车模型时,它在第一个时期给我错误。尽管当我减小 batch_size 时它工作正常。但这并没有给我想要的准确性。 我正在 Google Collab 中训练我的模型。 tenso
我注意到 fit_generator ,steps_per_epoch 参数通常分配total_samples//batch_size . 但是,如果我的 total_samples 是 1000 并
我被这个问题困扰了好几天... 我的问题是,为什么训练时间之间有如此大的差异,以至于我将生成器的batch_size设置为“1”和“20”。 如果将 batch_size 设置为 1 ,则 1个时期的
当我在 model.fit(..) 方法中指定 steps_per_epoch 参数时,我注意到训练模型速度大幅下降。当我将 steps_per_epoch 指定为 None(或不使用它)时,epoc
在 Keras 文档中 - steps_per_epoch: 在声明一个纪元结束并开始下一个纪元之前从生成器产生的总步数(样本批处理)。它通常应该等于数据集的唯一样本数除以批量大小。 我有 3000
我目前正在将 tf 代码转换为 tfrecords 和 tf 数据集。在我的应用程序中,经过训练的模型通常在看到所有训练样本之前很久就收敛了。因此,我通常将数据生成器长度自己设置为我想要适应一个时期的
我注意到对于fit_generator,通常会为steps_per_epoch参数分配total_samples//batch_size,在这里可以创建一个生成器/使用 ImageDataGenera
我正在为图像分类问题训练 2 个不同的 CNN(自定义学习和迁移学习)。我对两种型号使用相同的发电机。该数据集包含 5 个类别的 5000 个样本,但不平衡。 这是我正在使用的自定义模型。 def _
注意:我已经解决了我的问题,但我发布这个问题是为了防止其他人也有这个问题,而且我不明白我是如何解决它的。 我正在使用 Tensorflow 后端在 Keras 中构建命名实体分类器(序列标记模型)。当
我已经在 Keras 中训练了多个模型。我的训练集中有 39、592 个样本,验证集中有 9、899 个样本。我使用的批量大小为 2。 当我检查我的代码时,我突然想到我的生成器可能丢失了一些批处理的数
我是在项目中使用 keras 的新手。我一直在我的模型中使用generator。 我真的很困惑我应该输入什么值 1) In fit_generator : steps_per_epoch & vali
我在 tensorflow 中运行这段代码:https://github.com/empathy87/nn-grocery-shelves/blob/master/Step%202%20-%20Bra
我的代码如下: model.fit_generator(generator=(train_image_list, train_mask_list),epochs=1000,shuffle=True)
当我使用 batch_size 和 steps_per_epoch 参数运行 model.fit 时,我收到以下错误: ValueError: If steps_per_epoch is set, t
我使用的是包含我的训练数据的 tf.data 数据集,其中包含(比方说)10 万张图像。我还使用了包含我的验证集的 tf.data 数据集。由于所有 100k 图像的一个纪元需要很长时间(在我的例子中
我在 Jupyter Notebook 中使用 Keras 2.0.8 和 Python 3 内核。我的后端是 TensorFlow 1.3,我在 Mac 上开发。 每当我使用 fit_generat
我是一名优秀的程序员,十分优秀!