- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试基于卡住的 Inception_v3 模型训练一个模型,并以 3 个类作为输出。当我进行训练时,训练准确率上升,但验证准确率却没有上升,验证准确率大约为 33.33%,即显示完全随机的预测。我无法弄清楚我的代码和/或方法中的错误在哪里
我在 Inception v3 核心之后尝试了各种形式的输出,没有任何差异。
# Model definition
# InceptionV3 frozen, flatten, dense 1024, dropout 50%, dense 1024, dense 3, lr 0.001 --> does not train
# InceptionV3 frozen, flatten, dense 1024, dense 3, lr 0.001 --> does not train
# InceptionV3 frozen, flatten, dense 1024, dense 3, lr 0.005 --> does not train
# InceptionV3 frozen, GlobalAvgPooling, dense 1024, dense 1024, dense 512, dense 3, lr 0.001 --> does not train
# InceptionV3 frozen, GlobalAvgPooling dropout 0.4 dense 3, lr 0.001, custom pre-process --> does not train
# InceptionV3 frozen, GlobalAvgPooling dropout 0.4 dense 3, lr 0.001, custom pre-process, batch=32 --> does not train
# InceptionV3 frozen, GlobalAvgPooling dropout 0.4 dense 3, lr 0.001, custom pre-process, batch=32, rebalance train/val sets --> does not train
IMAGE_SIZE = 150
BATCH_SIZE = 32
def build_model(image_size):
input_tensor = tf.keras.layers.Input(shape=(image_size, image_size, 3))
inception_base = InceptionV3(include_top=False, weights='imagenet', input_tensor=input_tensor)
for layer in inception_base.layers:
layer.trainable = False
x = inception_base.output
x = tf.keras.layers.GlobalAveragePooling2D()(x)
x = tf.keras.layers.Dropout(0.2)(x)
output_tensor = tf.keras.layers.Dense(3, activation="softmax")(x)
model = tf.keras.Model(inputs=input_tensor, outputs=output_tensor)
return model
model = build_model(IMAGE_SIZE)
model.compile(optimizer=RMSprop(lr=0.002), loss='categorical_crossentropy', metrics=['acc'])
# Data generators with Image augmentations
train_datagen = ImageDataGenerator(
rescale=1./255,
preprocessing_function=tf.keras.applications.inception_v3.preprocess_input,
rotation_range=40,
width_shift_range=0.2,
height_shift_range=0.2,
shear_range=0.2,
zoom_range=0.2,
horizontal_flip=True,
fill_mode='nearest')
# Do not augment validation!
validation_datagen = ImageDataGenerator(
rescale=1./255,
preprocessing_function=tf.keras.applications.inception_v3.preprocess_input)
train_generator = train_datagen.flow_from_directory(
train_dir,
target_size=(IMAGE_SIZE, IMAGE_SIZE),
batch_size=BATCH_SIZE,
class_mode='categorical')
validation_generator = validation_datagen.flow_from_directory(
valid_dir,
target_size=(IMAGE_SIZE, IMAGE_SIZE),
batch_size=BATCH_SIZE,
class_mode='categorical')
该单元的输出是:
找到属于 3 个类别的 1697 个图像。找到属于 3 个类别的 712 张图像。
最后两个时期的训练输出:
纪元 19/20
23/23 [================================] - 6s 257ms/步 - 损耗:1.1930 - 加速器:0.3174
54/54 [================================] - 20s 363ms/步 - 损失:0.7870 - acc:0.6912 - val_loss :1.1930 - val_acc:0.3174
20/20纪元
23/23 [================================] - 6s 255ms/步 - 损耗:1.1985 - 加速器:0.3160
54/54 [================================] - 20s 362ms/步 - 损耗:0.7819 - acc:0.7018 - val_loss :1.1985 - val_acc:0.3160
最佳答案
唯一让我惊讶的是放弃 rescale=1./255
ImageDataGenerators
,因为这也是由 tf. keras.applications.inception_v3.preprocess_input
,将 -1 缩放到 1;网络的预期输入。
关于python - 使用 tf.keras 和 Inception-v3 进行迁移学习 : No training is happening,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56546772/
TensorFlow 提供了 3 种不同的数据存储格式 tf.train.Feature .它们是: tf.train.BytesList tf.train.FloatList tf.train.In
在我的设置中,我运行了一个脚本 火车一个模型并开始生成检查点。另一个脚本监视新的检查点和 评估 他们。脚本并行运行,因此评估只是训练之后的一步。 支持这种情况的正确 Tracks 配置是什么? 最佳答
什么是合理的设置?我可以在同一次执行中多次调用 Task.init() 吗? 最佳答案 免责声明:我是 allegro.ai Trains 团队的一员 一种解决方案是从 trains.automati
我想开始我的方式 ClearML (以前称为火车)。 我在documentation上看到的我需要在 ClearML 平台本身或使用 AWS 等的远程机器上运行服务器。 我真的很想绕过这个限制并在我的
我正在尝试使用 weka 的 MultilayerPerceptron 执行以下操作: 使用一小部分训练实例来训练一部分历元输入, 在剩余的周期中使用整组实例进行训练。 但是,当我在代码中执行以下操作
这个问题与对象检测有关,基本上是检测任何“已知”对象。例如,假设我有以下对象。 表格 瓶子。 相机 汽车 我将从所有这些单独的对象中拍摄 4 张照片。左边一个,右边一个,上下两个。我本来以为用这4张照
我已经编写了一段代码来训练Guassian过程回归模型来预测年龄。我已经编写了以下代码,并且运行良好:。但我注意到,每个纪元都输入了相同的数据,我认为这可能会导致过度拟合,所以我想使用Mini Bat
(一)、tf.train.Saver() (1). tf.train.Saver() 是用来保存tensorflow训练模型的,默认保存全部参数 (2). 用来加载参数,注:只加载存储在data
我是 PyTorch 的新手,我想知道您是否可以向我解释 PyTorch 中的默认 model.train() 与此处的 train() 函数之间的一些关键区别。 另一个 train() 函数位于关于
我可以在maskrcnn的预训练模型的基础上训练吗?如果预训练模型的类别与我自己的数据集不同,预训练模型仍然有效吗?。我尝试了一个新的班级训练数据集。但它似乎收敛得非常慢。
我可以按照Maskrcnn预先训练的模式进行训练吗?如果预先训练的模型的类别与我自己的数据集的类别不同,那么预先训练的模型是否仍然有效?。我尝试了一个新的班级训练数据集。但它似乎收敛得非常慢。
我想知道这两个 tensorflow 对象在用于训练神经网络时有什么区别? 最佳答案 Supervisor 即将被弃用,鼓励新用户使用 tf.train.FooSession 类 (来自 commen
我已经看到文档 tf.train.ExponentialMovingAverage 实现了这个公式: shadow_variable = decay * shadow_variable + (1 -
我发现在 Tensorflow 中有不同的方法来保存/恢复模型和变量。这些方式包括: tf.saved_model.simple_save tf.train.Checkpoint tf.train.S
查看两个带有参数的函数签名 tf.train.shuffle_batch_join( tensors_list, batch_size, capacity, min_after_dequeue, se
我使用 Binary data训练 DNN。 但是 tf.train.shuffle_batch 和 tf.train.batch 让我很困惑。 这是我的代码,我将对其进行一些测试。 首先Using_
正如文档/教程中提到的,我们可以调用 Estimator.fit()开始训练工作。 该方法所需的参数为 inputs这是对训练文件的 s3/file 引用。示例: estimator.fit({'tr
这个问题在这里已经有了答案: Split train data to train and validation by using tensorflow_datasets.load (TF 2.1) (
我知道这两个类都处理线程。根据文档,tf.train.Coordinator 协调一组线程的终止,而 tf.train.QueueRunner 保存队列的入队操作列表,每个操作都在一个线程中运行。 但
最近我读了this TensorFlow 中未记录特征的指南,因为我需要传递可变长度序列作为输入。但是,我发现 tf.train.SequenceExample 的协议(protocol)相对困惑(特
我是一名优秀的程序员,十分优秀!