- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我使用的是包含我的训练数据的 tf.data 数据集,其中包含(比方说)10 万张图像。我还使用了包含我的验证集的 tf.data 数据集。由于所有 100k 图像的一个纪元需要很长时间(在我的例子中大约一个小时)才能得到关于验证集性能的任何反馈,所以我在 tf.keras.Model 中设置了
到 steps_per_epoch
参数>fit()10000
。使用 1 的批量大小会导致在达到 100k 图像时具有 10 个验证分数。为了完成我整个训练数据集的 100k 图像的一个 epoch,我将 epochs
参数设置为 10
但是,我不确定以这种方式使用 steps_per_epoch
和 epochs
是否会产生任何其他后果。使用这些参数以获得更频繁的性能反馈是否正确?还有一个更具体的问题,它是使用所有 100k 图像还是在每个“纪元”使用我训练集的前 10k 图像?我已经深入研究了 TensorFlow docs并阅读了几个不同的堆栈溢出问题,但我找不到任何结论来回答我自己的问题。希望对您有所帮助!
我使用的 Tensorflow 版本是 2.2.0。
最佳答案
Is it correct to use these parameters in order to get more frequentfeedback on performance?
是的,使用这些参数是正确的。这是我用来拟合模型的代码。
model.fit(
train_data,
steps_per_epoch = train_samples//batch_size,
epochs = epochs,
validation_data = test_data,
verbose = 1,
validation_steps = test_samples//batch_size)
does it use all 100k images or does it use the same first 10k images of mytraining set at every 'epoch'?
它使用训练数据中的所有图像。
为了更好地理解,Epoch
是学习算法将遍历整个训练数据集的次数。
其中 steps_per_epoch
是训练数据集中的样本总数除以批量大小。
例如,如果您有 100000 个训练样本并使用 100 的批量大小,则一个 epoch 将相当于 1000 steps_per_epoch。
注意:我们通常观察到批量大小是 2 的幂,这是因为优化矩阵运算库的有效工作。
关于python - TensorFlow keras 模型 fit() 参数 steps_per_epoch 和 epochs 在训练集上的行为,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63919438/
我正在阅读《Python 中的深度学习》一书,想更多地了解定义 steps_per_epoch 和 batch size 时会发生什么。他们使用的示例包含 4000 张狗和猫的图像,其中 2000 张
我正在尝试使用这个 Google 的示例,但使用我自己的数据集: https://github.com/tensorflow/examples/blob/master/tensorflow_examp
我是深度学习的新手。我有一个基本的疑问。这对你来说可能听起来很愚蠢。 我正在研究从卫星图像中提取道路。我只有 1080 个样本图像。这就是我应用数据增强的原因。 以下是数据增强的代码 aug = Im
当我训练我的自动驾驶汽车模型时,它在第一个时期给我错误。尽管当我减小 batch_size 时它工作正常。但这并没有给我想要的准确性。 我正在 Google Collab 中训练我的模型。 tenso
当我训练我的自动驾驶汽车模型时,它在第一个时期给我错误。尽管当我减小 batch_size 时它工作正常。但这并没有给我想要的准确性。 我正在 Google Collab 中训练我的模型。 tenso
我注意到 fit_generator ,steps_per_epoch 参数通常分配total_samples//batch_size . 但是,如果我的 total_samples 是 1000 并
我被这个问题困扰了好几天... 我的问题是,为什么训练时间之间有如此大的差异,以至于我将生成器的batch_size设置为“1”和“20”。 如果将 batch_size 设置为 1 ,则 1个时期的
当我在 model.fit(..) 方法中指定 steps_per_epoch 参数时,我注意到训练模型速度大幅下降。当我将 steps_per_epoch 指定为 None(或不使用它)时,epoc
在 Keras 文档中 - steps_per_epoch: 在声明一个纪元结束并开始下一个纪元之前从生成器产生的总步数(样本批处理)。它通常应该等于数据集的唯一样本数除以批量大小。 我有 3000
我目前正在将 tf 代码转换为 tfrecords 和 tf 数据集。在我的应用程序中,经过训练的模型通常在看到所有训练样本之前很久就收敛了。因此,我通常将数据生成器长度自己设置为我想要适应一个时期的
我注意到对于fit_generator,通常会为steps_per_epoch参数分配total_samples//batch_size,在这里可以创建一个生成器/使用 ImageDataGenera
我正在为图像分类问题训练 2 个不同的 CNN(自定义学习和迁移学习)。我对两种型号使用相同的发电机。该数据集包含 5 个类别的 5000 个样本,但不平衡。 这是我正在使用的自定义模型。 def _
注意:我已经解决了我的问题,但我发布这个问题是为了防止其他人也有这个问题,而且我不明白我是如何解决它的。 我正在使用 Tensorflow 后端在 Keras 中构建命名实体分类器(序列标记模型)。当
我已经在 Keras 中训练了多个模型。我的训练集中有 39、592 个样本,验证集中有 9、899 个样本。我使用的批量大小为 2。 当我检查我的代码时,我突然想到我的生成器可能丢失了一些批处理的数
我是在项目中使用 keras 的新手。我一直在我的模型中使用generator。 我真的很困惑我应该输入什么值 1) In fit_generator : steps_per_epoch & vali
我在 tensorflow 中运行这段代码:https://github.com/empathy87/nn-grocery-shelves/blob/master/Step%202%20-%20Bra
我的代码如下: model.fit_generator(generator=(train_image_list, train_mask_list),epochs=1000,shuffle=True)
当我使用 batch_size 和 steps_per_epoch 参数运行 model.fit 时,我收到以下错误: ValueError: If steps_per_epoch is set, t
我使用的是包含我的训练数据的 tf.data 数据集,其中包含(比方说)10 万张图像。我还使用了包含我的验证集的 tf.data 数据集。由于所有 100k 图像的一个纪元需要很长时间(在我的例子中
我在 Jupyter Notebook 中使用 Keras 2.0.8 和 Python 3 内核。我的后端是 TensorFlow 1.3,我在 Mac 上开发。 每当我使用 fit_generat
我是一名优秀的程序员,十分优秀!