- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试使用这个 Google 的示例,但使用我自己的数据集:
https://github.com/tensorflow/examples/blob/master/tensorflow_examples/lite/model_customization/demo/text_classification.ipynb
我创建了一个文件夹,类似于在他们的代码中下载的内容,其中包含训练和测试文件夹以及 txt 文件。
在我的情况下 data_path 如下:data_path = '/Users/developer/.keras/datasets/chat'
每当我尝试运行它时 model = text_classifier.create(train_data)
抛出错误ValueError: When passing an infinitely repeating dataset, you must specify the `steps_per_epoch` argument.
这甚至意味着什么,我应该在哪里寻找问题?
import numpy as np
import os
import tensorflow as tf
assert tf.__version__.startswith('2')
from tensorflow_examples.lite.model_customization.core.data_util.text_dataloader import TextClassifierDataLoader
from tensorflow_examples.lite.model_customization.core.model_export_format import ModelExportFormat
import tensorflow_examples.lite.model_customization.core.task.text_classifier as text_classifier
# data_path = tf.keras.utils.get_file(
# fname='aclImdb',
# origin='http://ai.stanford.edu/~amaas/data/sentiment/aclImdb_v1.tar.gz',
# untar=True)
data_path = '/Users/developer/.keras/datasets/chat'
train_data = TextClassifierDataLoader.from_folder(os.path.join(data_path, 'train'), class_labels=['greeting', 'goodbye'])
test_data = TextClassifierDataLoader.from_folder(os.path.join(data_path, 'test'), shuffle=False)
model = text_classifier.create(train_data)
loss, acc = model.evaluate(test_data)
model.export('movie_review_classifier.tflite', 'text_label.txt', 'vocab.txt')
最佳答案
问题是,当您针对所需的时期数训练模型时,您的训练代码部分可能无法确定特定时期何时开始以及该时期何时结束。
因此,在训练期间,可以添加“steps_per_epoch”参数,以便它知道如何针对单个时期的特定有限步数进行操作和训练。
在验证的情况下,我们添加特定的“validation_steps”来解决相同的问题。
我通过将 steps_per_epoch 和 validation_steps 参数添加到我的 tf.Keras model.fit() 代码中解决了这个问题,就像上面一样。
需要总结如何在代码中提供这些参数。
引用:
关于python - 传递无限重复的数据集时,必须指定 `steps_per_epoch` 参数,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58842925/
我正在阅读《Python 中的深度学习》一书,想更多地了解定义 steps_per_epoch 和 batch size 时会发生什么。他们使用的示例包含 4000 张狗和猫的图像,其中 2000 张
我正在尝试使用这个 Google 的示例,但使用我自己的数据集: https://github.com/tensorflow/examples/blob/master/tensorflow_examp
我是深度学习的新手。我有一个基本的疑问。这对你来说可能听起来很愚蠢。 我正在研究从卫星图像中提取道路。我只有 1080 个样本图像。这就是我应用数据增强的原因。 以下是数据增强的代码 aug = Im
当我训练我的自动驾驶汽车模型时,它在第一个时期给我错误。尽管当我减小 batch_size 时它工作正常。但这并没有给我想要的准确性。 我正在 Google Collab 中训练我的模型。 tenso
当我训练我的自动驾驶汽车模型时,它在第一个时期给我错误。尽管当我减小 batch_size 时它工作正常。但这并没有给我想要的准确性。 我正在 Google Collab 中训练我的模型。 tenso
我注意到 fit_generator ,steps_per_epoch 参数通常分配total_samples//batch_size . 但是,如果我的 total_samples 是 1000 并
我被这个问题困扰了好几天... 我的问题是,为什么训练时间之间有如此大的差异,以至于我将生成器的batch_size设置为“1”和“20”。 如果将 batch_size 设置为 1 ,则 1个时期的
当我在 model.fit(..) 方法中指定 steps_per_epoch 参数时,我注意到训练模型速度大幅下降。当我将 steps_per_epoch 指定为 None(或不使用它)时,epoc
在 Keras 文档中 - steps_per_epoch: 在声明一个纪元结束并开始下一个纪元之前从生成器产生的总步数(样本批处理)。它通常应该等于数据集的唯一样本数除以批量大小。 我有 3000
我目前正在将 tf 代码转换为 tfrecords 和 tf 数据集。在我的应用程序中,经过训练的模型通常在看到所有训练样本之前很久就收敛了。因此,我通常将数据生成器长度自己设置为我想要适应一个时期的
我注意到对于fit_generator,通常会为steps_per_epoch参数分配total_samples//batch_size,在这里可以创建一个生成器/使用 ImageDataGenera
我正在为图像分类问题训练 2 个不同的 CNN(自定义学习和迁移学习)。我对两种型号使用相同的发电机。该数据集包含 5 个类别的 5000 个样本,但不平衡。 这是我正在使用的自定义模型。 def _
注意:我已经解决了我的问题,但我发布这个问题是为了防止其他人也有这个问题,而且我不明白我是如何解决它的。 我正在使用 Tensorflow 后端在 Keras 中构建命名实体分类器(序列标记模型)。当
我已经在 Keras 中训练了多个模型。我的训练集中有 39、592 个样本,验证集中有 9、899 个样本。我使用的批量大小为 2。 当我检查我的代码时,我突然想到我的生成器可能丢失了一些批处理的数
我是在项目中使用 keras 的新手。我一直在我的模型中使用generator。 我真的很困惑我应该输入什么值 1) In fit_generator : steps_per_epoch & vali
我在 tensorflow 中运行这段代码:https://github.com/empathy87/nn-grocery-shelves/blob/master/Step%202%20-%20Bra
我的代码如下: model.fit_generator(generator=(train_image_list, train_mask_list),epochs=1000,shuffle=True)
当我使用 batch_size 和 steps_per_epoch 参数运行 model.fit 时,我收到以下错误: ValueError: If steps_per_epoch is set, t
我使用的是包含我的训练数据的 tf.data 数据集,其中包含(比方说)10 万张图像。我还使用了包含我的验证集的 tf.data 数据集。由于所有 100k 图像的一个纪元需要很长时间(在我的例子中
我在 Jupyter Notebook 中使用 Keras 2.0.8 和 Python 3 内核。我的后端是 TensorFlow 1.3,我在 Mac 上开发。 每当我使用 fit_generat
我是一名优秀的程序员,十分优秀!