gpt4 book ai didi

tensorflow - 通过 Tensorflow Object Detection API 进行的数据扩充是否会导致比原始样本更多的样本?

转载 作者:行者123 更新时间:2023-12-04 17:42:46 24 4
gpt4 key购买 nike

假设我的原始原始数据集有 100 张图像。我应用了 random_horizo​​ntal_flip 数据增强,默认情况下水平翻转的概率为 50%。举个例子,假设它翻转了 100 张图像中的 50 张。所以,

  1. 这是否意味着我的算法现在将使用 150 张图像(100 张原始图像和 50 张翻转版本)进行训练,或者这是否意味着它仍将使用 100 张图像进行训练,但其中 50 张将是原始图像的翻转版本?
  2. 问题 1 的答案是否可以推广到 Tensorflow 对象检测 API 提供的所有数据增强选项?

我尽可能多地阅读了官方文档,并查看了preprocessor code ,但找不到我的答案。

最佳答案

默认增强概率为 50%,独立应用于每个图像。您的模型/算法训练所依据的图像数量取决于 epoch 的数量。

  • 假设您的批处理大小为 1,总纪元数为 100:您的算法将在 100 张图像上进行训练,其中 50 张将是原始图像的翻转版本。在这种情况下,模型将看不到原始的 50 张图像,因为你的 epoch 太低了。

  • 假设您的批量大小为 1,总纪元数为 200:您的算法将在 200 张图像上进行训练,其中 100 张将是原始图像的翻转版本。

因此,只要您的 epoch 大小不限制您的数据集,概率为 50%,您将看到通过翻转每个项目使数据集翻倍的效果。

除了水平翻转之外,如果您也添加垂直翻转 (random_vertical_flip),您的数据集将增加三倍。

关于tensorflow - 通过 Tensorflow Object Detection API 进行的数据扩充是否会导致比原始样本更多的样本?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53752954/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com