- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我基本上使用了 Keras Inception 迁移学习 API 教程中的大部分代码,
https://faroit.github.io/keras-docs/2.0.0/applications/#inceptionv3
只需进行一些小改动以适合我的数据。
我正在使用 Tensorflow-gpu 1.4、Windows 7 和 Keras 2.03(?最新的 Keras)。
from keras.applications.inception_v3 import InceptionV3
from keras.preprocessing import image
from keras.preprocessing.image import ImageDataGenerator
from keras.models import Model
from keras.layers import Dense, GlobalAveragePooling2D
from keras import backend as K
img_width, img_height = 299, 299
train_data_dir = r'C:\Users\Moondra\Desktop\Keras Applications\data\train'
nb_train_samples = 8
nb_validation_samples = 100
batch_size = 10
epochs = 5
train_datagen = ImageDataGenerator(
rescale = 1./255,
horizontal_flip = True,
zoom_range = 0.1,
rotation_range=15)
train_generator = train_datagen.flow_from_directory(
train_data_dir,
target_size = (img_height, img_width),
batch_size = batch_size,
class_mode = 'categorical') #class_mode = 'categorical'
# create the base pre-trained model
base_model = InceptionV3(weights='imagenet', include_top=False)
# add a global spatial average pooling layer
x = base_model.output
x = GlobalAveragePooling2D()(x)
# let's add a fully-connected layer
x = Dense(1024, activation='relu')(x)
# and a logistic layer -- let's say we have 200 classes
predictions = Dense(12, activation='softmax')(x)
# this is the model we will train
model = Model(input=base_model.input, output=predictions)
# first: train only the top layers (which were randomly initialized)
# i.e. freeze all convolutional InceptionV3 layers
for layer in base_model.layers:
layer.trainable = False
# compile the model (should be done *after* setting layers to non-trainable)
model.compile(optimizer='rmsprop', loss='categorical_crossentropy')
# train the model on the new data for a few epochs
model.fit_generator(
train_generator,
steps_per_epoch = 5,
epochs = epochs)
# at this point, the top layers are well trained and we can start fine-tuning
# convolutional layers from inception V3. We will freeze the bottom N layers
# and train the remaining top layers.
# let's visualize layer names and layer indices to see how many layers
# we should freeze:
for i, layer in enumerate(base_model.layers):
print(i, layer.name)
# we chose to train the top 2 inception blocks, i.e. we will freeze
# the first 172 layers and unfreeze the rest:
for layer in model.layers[:172]:
layer.trainable = False
for layer in model.layers[172:]:
layer.trainable = True
# we need to recompile the model for these modifications to take effect
# we use SGD with a low learning rate
from keras.optimizers import SGD
model.compile(optimizer=SGD(lr=0.0001, momentum=0.9), loss='categorical_crossentropy')
# we train our model again (this time fine-tuning the top 2 inception blocks
# alongside the top Dense layers
model.fit_generator(
train_generator,
steps_per_epoch = 5,
epochs = epochs)
Epoch 1/5
1/5 [=====>........................] - ETA: 8s - loss: 2.4869
2/5 [===========>..................] - ETA: 3s - loss: 5.5591
3/5 [=================>............] - ETA: 1s - loss: 6.6299
4/5 [=======================>......] - ETA: 0s - loss: 8.4925
它只是卡在这里。
我用 tensorflow 1.3(降级一个版本)和 Keras 2.03(最新的 pip 版本)创建了一个虚拟环境,但仍然有同样的问题。
我不认为这是一个内存问题,就好像我在 epoch 内更改步骤一样——它会一直运行到最后一步,只是卡住。
所以一个纪元中有 30 步,它将运行到 29。
5 步,它会运行到第 4 步,然后挂起。
还按照 Keras API 中的建议尝试了第 249 层。
最佳答案
显然这是一个通过 Keras 更新修复的错误(但是,有些人仍然遇到这个问题)
关于python - 无法通过第一个纪元 - 只是挂起 [Keras Transfer Learning Inception],我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47382952/
原文SSD论文中他们使用了 VGG16 网络来进行特征提取。我使用的是 TensorFlow 模型库中的 SSD Inception v2 模型,我不知道架构上有什么区别。这个stack overfl
对于 pytorch 模型,我发现 this tutorial 解释了如何对图像进行分类。我尝试对初始模型应用相同的过程。但是,对于我加载的每个图像,模型都会失败 代码: # some people
我有一个对象 WorkbookMapping,其中包含一个对象列表 SpreadsheetMapping,并且每个对象都有另一个对象列表 CellMapping,因此是 Inception。当我尝试访
简单的问题,但很难回答?我在类方法中有以下匿名函数: $unnest_array = function($nested, $key) { $unnested = array(); fo
我对使用 Tensorflow 还很陌生。我在这个 repo 中使用 Inception-V3 模型进行图像识别: https://github.com/tensorflow/models/tree/
在 inception v3他们讨论了关于标签平滑的论文,但在(keras 代码)here没有提到标签平滑。如何为 inception v3 网络编写标签平滑代码。建议将其纳入损失函数中。我正在使用分
我正在关注 codelabs Tensorflow for poets使用我自己的图像重新训练 inception v3 的指南。但没有提到我的图像应该有多大。我还观看了一些 YouTube 视频,其
在终端中,我可以轻松获取命令的错误代码 > cat thisdoesntexist cat: thisdoesntexist: No such file or directory > echo $?
我必须使用 iframe 从 textarea 显示 html 代码的预览(整个 html 页面当然以 html 标签开始......等等)。它适用于 webkit 浏览器,但不适用于 firefox
我正在使用 Inception V3 模型训练二元分类器,我想将数据集的一些非图像特征输入到网络中。 我之前已经使用这些功能训练了一个逻辑回归模型,该模型表现良好,我想看看是否可以通过组合这些模型来改
我是图像分类新手。我正在尝试使用 python 中的 mxnet 解决 kaggle 上的问题。我试图运行一个脚本代码,这是该问题的解决方案之一。代码就像: prefix="Inception/Inc
我正在尝试调整示例重新训练脚本 ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/image_ret
Inception v3 模型如下图所示: 图片来自这篇博文: https://research.googleblog.com/2016/03/train-your-own-image-classif
我正在使用这个微调 inception-v3 模型花:https://github.com/tensorflow/models/tree/master/inception 我在一个目录中检查了结果。但
我设法使用此 tutorial 之后的通用初始模型重新训练我的特定分类模型.我现在想在这个 steps 之后将它部署在谷歌云机器学习上. 我已经设法将其导出为 MetaGraph,但无法获得正确的输入
我正在使用 Inception v3 提取瓶颈张量。我的问题:我一次只能提供一张图像: sess.graph.get_tensor_by_name("pool_3:0").eval(session=s
我目前在花再训练示例 (https://www.tensorflow.org/versions/r0.9/how_tos/image_retraining/index.html) 中遇到了一个奇怪的错
我正在使用 Inceptionv3.mlmodel CoreML 模型,但希望将输出标签翻译为多种语言。最干净/最好的方法是什么? 谢谢 最佳答案 我会使用built in international
我在花卉数据集上重新训练了 Tensorflow 的 Inception V3 的最后一层。这是使用以下方法完成的: bazel-bin/tensorflow/examples/image_retra
我在教程 ( https://www.tensorflow.org/versions/r0.9/how_tos/image_retraining/index.html ) 中使用 Google 的 I
我是一名优秀的程序员,十分优秀!