- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试通过 TensorFlow 实现 FCN,并且我使用了 Keras。在第一次训练后,我得到了这个错误:
我认为它应该与 ModelCheckpoint() 和 model.fit() 有关,因为当我删除 model.fit() 中的回调时,它可以完成所有时期。
任何帮助将不胜感激。谢谢。
这是我的代码的一部分:
from __future__ import print_function
import os
from skimage.transform import resize
from skimage.io import imsave
import numpy as np
from keras.models import Model
from keras.optimizers import SGD
from keras.callbacks import ModelCheckpoint
from keras import backend as K
from keras.callbacks import *
from keras.utils.vis_utils import plot_model
import shutil
import matplotlib.pyplot as plt
from pylab import *
from keras.regularizers import l2
from keras.layers import *
from keras.engine import Layer
from keras.applications.vgg16 import *
from keras.models import *
from keras.applications.imagenet_utils import _obtain_input_shape
import tensorflow as tf
import time
K.set_image_data_format('channels_last') # TF dimension ordering in this code
starttime = time.clock()
img_rows = 512
img_cols = 512
smooth = 1.
def dice_coef(y_true, y_pred):
y_true_f = K.flatten(y_true)
y_pred_f = K.flatten(y_pred)
intersection = K.sum(y_true_f * y_pred_f)
return (2. * intersection + smooth) / (K.sum(y_true_f) + K.sum(y_pred_f) + smooth)
def FCN32():
# https://github.com/fchollet/deep-learning-models/releases/download/v0.1/vgg16_weights_th_dim_ordering_th_kernels.h5
inputs = Input((img_rows, img_cols, 1))
conv1 = Conv2D(64, (3, 3), activation='relu', padding='same', name='block1_conv1')(inputs)
conv1 = Conv2D(64, (3, 3), activation='relu', padding='same', name='block1_conv2')(conv1)
pool1 = MaxPooling2D((2, 2), strides=(2, 2), name='block1_pool')(conv1)
# Block 2
conv2 = Conv2D(128, (3, 3), activation='relu', padding='same', name='block2_conv1')(pool1)
conv2 = Conv2D(128, (3, 3), activation='relu', padding='same', name='block2_conv2')(conv2)
pool2 = MaxPooling2D((2, 2), strides=(2, 2), name='block2_pool')(conv2)
# Block 3
conv3 = Conv2D(256, (3, 3), activation='relu', padding='same', name='block3_conv1')(pool2)
conv3 = Conv2D(256, (3, 3), activation='relu', padding='same', name='block3_conv2')(conv3)
conv3 = Conv2D(256, (3, 3), activation='relu', padding='same', name='block3_conv3')(conv3)
pool3 = MaxPooling2D((2, 2), strides=(2, 2), name='block3_pool')(conv3)
# Block 4
conv4 = Conv2D(512, (3, 3), activation='relu', padding='same', name='block4_conv1')(pool3)
conv4 = Conv2D(512, (3, 3), activation='relu', padding='same', name='block4_conv2')(conv4)
conv4 = Conv2D(512, (3, 3), activation='relu', padding='same', name='block4_conv3')(conv4)
pool4 = MaxPooling2D((2, 2), strides=(2, 2), name='block4_pool')(conv4)
# Block 5
conv5 = Conv2D(512, (3, 3), activation='relu', padding='same', name='block5_conv1')(pool4)
conv5 = Conv2D(512, (3, 3), activation='relu', padding='same', name='block5_conv2')(conv5)
conv5 = Conv2D(512, (3, 3), activation='relu', padding='same', name='block5_conv3')(conv5)
pool5 = MaxPooling2D((2, 2), strides=(2, 2), name='block5_pool')(conv5)
up1 = (Conv2D(32, (7, 7), activation='relu', padding='same'))(pool5)
drop1 = Dropout(0.5)(up1)
up2 = (Conv2D(32, (1, 1), activation='relu', padding='same'))(drop1)
drop2 = Dropout(0.5)(up2)
up3 = (Conv2D(1, (1, 1), kernel_initializer='he_normal'))(drop1)
up4 = Conv2DTranspose(1, kernel_size=(64, 64), strides=(30, 30), use_bias=False)(up3)
crop1 = Cropping2D(cropping=((1, 1), (1, 1)))(up4)
model = Model(inputs=[inputs], outputs=[crop1])
model.compile(optimizer=SGD(lr=0.005), loss='binary_crossentropy', metrics=[dice_coef])
return model
def train_and_predict():
print('-' * 30)
print('Loading train data...')
print('-' * 30)
imgs_train = np.load('train_data.npy')
imgs_label_train = np.load('train_label.npy')
imgs_train = imgs_train.reshape(1000, 512, 512, 1)
imgs_label_train = imgs_label_train.reshape(1000, 512, 512, 1)
# imgs_train = preprocess(imgs_train)
##imgs_mask_train = preprocess(imgs_mask_train)
imgs_train = imgs_train.astype('float32')
mean = np.mean(imgs_train) # mean for data centering
std = np.std(imgs_train) # std for data normalization
imgs_train -= mean
imgs_train /= std
imgs_label_train = imgs_label_train.astype('float32')
imgs_label_train /= 255. # scale masks to [0, 1]
print('-' * 30)
print('Creating and compiling model...')
print('-' * 30)
log_filepath = '/logs'
model = FCN32()
model_checkpoint = ModelCheckpoint('fcn32_weights.{epochs:02d-{dice_coef:.2f}}.h5', monitor='val_loss',
save_best_only=True)
tb_cb = TensorBoard(log_dir=log_filepath, write_images=False, histogram_freq=1, write_graph=True)
print('-' * 30)
print('Fitting model...')
print('-' * 30)
model.fit(imgs_train, imgs_label_train, batch_size=10, epochs=10, verbose=1, shuffle=True,
validation_split=0.02,
callbacks=[model_checkpoint, tb_cb])
print('-' * 30)
print('Loading test data...')
print('-' * 30)
imgs_test = np.load('test_data.npy')
imgs_test = imgs_test.reshape(100, 512, 512, 1)
imgs_test = imgs_test.astype('float32')
imgs_test -= mean
imgs_test /= std
print('-' * 30)
print('Loading saved weights...')
print('-' * 30)
model.load_weights('fcn32_weights.h5')
print('-' * 30)
print('Predicting masks on test data...')
print('-' * 30)
imgs_mask_test = model.predict(imgs_test, batch_size=10, verbose=1)
np.save('imgs_mask_test.npy', imgs_mask_test)
if __name__ == '__main__':
train_and_predict()
endtime = time.clock()
print("The train_and_predict running time is %g s" % (endtime - starttime))
最佳答案
由于您在第一个 epoch 结束时收到错误,这可能是由于您的 ModelCheckpoint 回调造成的:您将第一个 }
放在了错误的位置!
尝试
model_checkpoint = ModelCheckpoint('fcn32_weights.{epoch:02d}-{val_loss:.2f}.h5', monitor='val_loss', save_best_only=True)
关于python - 为什么我的代码抛出 KeyError : 'epochs' when I implemented Fully Convolutional Networks by Keras,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/51799234/
这个问题已经有答案了: Find closest date in array with JavaScript (6 个回答) 已关闭 4 年前。 我有一个基本纪元时间值和一个纪元时间数组以及相应纪元时
这个单线用于保存keras深度学习神经网络模型。 model.save('my_model.h5') model.save()保存的是最后一个epoch的模型还是最好的epoch的模型?有时,最后一个
我在 keras 中有以下神经网络(可能没有必要对其进行审查来回答我的问题: 简短摘要:它是一个以图像作为输入并输出图像的神经网络。神经网络主要是卷积网络。我使用发电机。另外,我有两个回调:一个用于
我使用卷积神经网络 (CNN) 来训练数据集。这里我得到 epoch、val_loss、val_acc、总损失、训练时间等作为历史记录。如果我想计算准确率的平均值,那么如何访问 val_acc,以及如
我可能有一个“臃肿的图表”,请参阅( Why does tf.assign() slow the execution time? ),因为每个纪元都花费越来越多的时间,但我在代码中看不到它。你能帮助我
我正在尝试从网站 http://epochjs.github.io/epoch/real-time 运行一个基本示例我收到以下错误 jQuery.Deferred exception: $(...).
我正在尝试使用 SimpleDateFormat 进行简单的纪元到日期的转换。每当我运行该程序时,我都会在转换后收到无效日期。我已经在转换器中运行了纪元戳 [并且我还在外部服务器中存储了日期],所以我
我知道我不久前发布了这个,但我想出了解决方案。我为名为 Roblox 的游戏编写了此代码,但我只是在此处发布代码,以防其他遇到相同问题的人需要解决方案。无论如何,这是代码: outputTime =
为了在 JSON 中传递时间到/从 Web API,为什么我会选择使用 ISO8601 字符串而不是简单的 UTC 纪元值?例如,这两者是相同的: Epoch = 1511324473 iso8601
每次验证循环结束时,我都想保存一个检查点。我设置了val_check_interval成为 0.2所以我在每个时期有 5 个验证循环,但检查点回调仅在时期结束时保存模型。我找不到在每个验证循环后保存模
在 manual在 Tensorflow 中的 Dataset 类上,它展示了如何对数据进行混洗以及如何对其进行批处理。然而,如何对每个时期的数据进行洗牌并不明显。我已经尝试了下面的方法,但是数据在第
我正在尝试基于本文实现一个判别性损失函数,例如图像分割:https://arxiv.org/pdf/1708.02551.pdf (此链接仅供读者引用;我不希望有人阅读它来帮助我!) 我的问题:一旦我
我有一个基于 JSON 的源,我想使用 ADF 映射数据流进行转换。我有一个包含纪元时间戳值的字符串,我想将其转换为日期时间值,以便稍后将其放入 Parquet 文件中。 你知道方法吗?这种语言的文档
我有一个基于 JSON 的源,我想使用 ADF 映射数据流进行转换。我有一个包含纪元时间戳值的字符串,我想将其转换为日期时间值,以便稍后将其放入 Parquet 文件中。 你知道方法吗?这种语言的文档
我有一个以下格式的字符串:“2019-08-17T09:51:41.775+00:00”。我需要将其转换为纪元微秒,但我的转换总是相差一个小时。 这是我目前的代码: String timestamp
在 Python 中的 Tensorflow 2.0 中训练神经网络时,我注意到训练精度和损失在不同时期之间发生了巨大变化。我知道打印的指标是整个 epoch 的平均值,但在每个 epoch 之后准确
假设我有一个定义的神经网络的训练样本(带有相应的训练标签)(神经网络的架构对于回答这个问题无关紧要)。让我们称神经网络为“模型”。 为了不产生任何误解,假设我介绍了“模型”的初始权重和偏差。 实验 1
我正在尝试将以下列转换为纪元,为机器学习做准备,我的 csv 的其余部分包含字符串,所以我假设这是最好的方法,我尝试创建一个 numpy 数组并使用 datetime 对其进行转换,等等但这不起作用我
我正在编写一个 Node API 并得到一个模型,我必须为其生成一个15 位随机数。这必须是唯一的,并且不应看起来微不足道(我无法获得自动增量)。 我真的不想生成数字并查询 Mongo 数据库以进行存
features = [tf.contrib.layers.real_valued_column("x", dimension=1)] estimator = tf.contrib.learn.Lin
我是一名优秀的程序员,十分优秀!