- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
这是我的模型:
filters = 256
kernel_size = 3
strides = 1
factor = 4 # the factor of upscaling
inputLayer = Input(shape=(img_height//factor, img_width//factor, img_depth))
conv1 = Conv2D(filters, kernel_size, strides=strides, padding='same')(inputLayer)
res = Conv2D(filters, kernel_size, strides=strides, padding='same')(conv1)
act = ReLU()(res)
res = Conv2D(filters, kernel_size, strides=strides, padding='same')(act)
res_rec = Add()([conv1, res])
for i in range(15): # 16-1
res1 = Conv2D(filters, kernel_size, strides=strides, padding='same')(res_rec)
act = ReLU()(res1)
res2 = Conv2D(filters, kernel_size, strides=strides, padding='same')(act)
res_rec = Add()([res_rec, res2])
conv2 = Conv2D(filters, kernel_size, strides=strides, padding='same')(res_rec)
a = Add()([conv1, conv2])
up = UpSampling2D(size=4)(a)
outputLayer = Conv2D(filters=3,
kernel_size=1,
strides=1,
padding='same')(up)
model = Model(inputs=inputLayer, outputs=outputLayer)
model.summary()
显示:
__________________________________________________________________________________________________
Layer (type) Output Shape Param # Connected to
==================================================================================================
input_1 (InputLayer) (None, 350, 350, 3) 0
__________________________________________________________________________________________________
conv2d_1 (Conv2D) (None, 350, 350, 256 7168 input_1[0][0]
__________________________________________________________________________________________________
conv2d_2 (Conv2D) (None, 350, 350, 256 590080 conv2d_1[0][0]
__________________________________________________________________________________________________
re_lu_1 (ReLU) (None, 350, 350, 256 0 conv2d_2[0][0]
__________________________________________________________________________________________________
conv2d_3 (Conv2D) (None, 350, 350, 256 590080 re_lu_1[0][0]
__________________________________________________________________________________________________
add_1 (Add) (None, 350, 350, 256 0 conv2d_1[0][0]
conv2d_3[0][0]
__________________________________________________________________________________________________
conv2d_4 (Conv2D) (None, 350, 350, 256 590080 add_1[0][0]
__________________________________________________________________________________________________
re_lu_2 (ReLU) (None, 350, 350, 256 0 conv2d_4[0][0]
__________________________________________________________________________________________________
conv2d_5 (Conv2D) (None, 350, 350, 256 590080 re_lu_2[0][0]
__________________________________________________________________________________________________
add_2 (Add) (None, 350, 350, 256 0 add_1[0][0]
conv2d_5[0][0]
__________________________________________________________________________________________________
conv2d_6 (Conv2D) (None, 350, 350, 256 590080 add_2[0][0]
__________________________________________________________________________________________________
re_lu_3 (ReLU) (None, 350, 350, 256 0 conv2d_6[0][0]
__________________________________________________________________________________________________
conv2d_7 (Conv2D) (None, 350, 350, 256 590080 re_lu_3[0][0]
__________________________________________________________________________________________________
add_3 (Add) (None, 350, 350, 256 0 add_2[0][0]
conv2d_7[0][0]
...... this goes on for a long time .....
__________________________________________
add_15 (Add) (None, 350, 350, 256 0 add_14[0][0]
conv2d_31[0][0]
__________________________________________________________________________________________________
conv2d_32 (Conv2D) (None, 350, 350, 256 590080 add_15[0][0]
__________________________________________________________________________________________________
re_lu_16 (ReLU) (None, 350, 350, 256 0 conv2d_32[0][0]
__________________________________________________________________________________________________
conv2d_33 (Conv2D) (None, 350, 350, 256 590080 re_lu_16[0][0]
__________________________________________________________________________________________________
add_16 (Add) (None, 350, 350, 256 0 add_15[0][0]
conv2d_33[0][0]
__________________________________________________________________________________________________
conv2d_34 (Conv2D) (None, 350, 350, 256 590080 add_16[0][0]
__________________________________________________________________________________________________
add_17 (Add) (None, 350, 350, 256 0 conv2d_1[0][0]
conv2d_34[0][0]
__________________________________________________________________________________________________
up_sampling2d_1 (UpSampling2D) (None, 1400, 1400, 2 0 add_17[0][0]
__________________________________________________________________________________________________
conv2d_35 (Conv2D) (None, 1400, 1400, 3 771 up_sampling2d_1[0][0]
==================================================================================================
Total params: 19,480,579
Trainable params: 19,480,579
Non-trainable params: 0
__________________________________________________________________________________________________
None
重要的部分就在最后,靠近输出:
__________________________________________________________________________________________________
add_17 (Add) (None, 350, 350, 256 0 conv2d_1[0][0]
conv2d_34[0][0]
__________________________________________________________________________________________________
up_sampling2d_1 (UpSampling2D) (None, 1400, 1400, 2 0 add_17[0][0]
__________________________________________________________________________________________________
conv2d_35 (Conv2D) (None, 1400, 1400, 3 771 up_sampling2d_1[0][0]
==================================================================================================
现在,看看我运行网络时遇到的错误:
Traceback (most recent call last):
File "C:/Users/payne/PycharmProjects/PixelEnhancer/trainTest.py", line 280, in <module>
setUpImages()
File "C:/Users/payne/PycharmProjects/PixelEnhancer/trainTest.py", line 96, in setUpImages
setUpData(trainData, testData)
File "C:/Users/payne/PycharmProjects/PixelEnhancer/trainTest.py", line 135, in setUpData
setUpModel(X_train, Y_train, validateTestData, trainingTestData)
File "C:/Users/payne/PycharmProjects/PixelEnhancer/trainTest.py", line 176, in setUpModel
train(model, X_train, Y_train, validateTestData, trainingTestData)
File "C:/Users/payne/PycharmProjects/PixelEnhancer/trainTest.py", line 192, in train
batch_size=32)
File "C:\Users\payne\Anaconda3\envs\ml-gpu\lib\site-packages\keras\engine\training.py", line 950, in fit
batch_size=batch_size)
File "C:\Users\payne\Anaconda3\envs\ml-gpu\lib\site-packages\keras\engine\training.py", line 787, in _standardize_user_data
exception_prefix='target')
File "C:\Users\payne\Anaconda3\envs\ml-gpu\lib\site-packages\keras\engine\training_utils.py", line 137, in standardize_input_data
str(data_shape))
ValueError: Error when checking target: expected conv2d_35 to have shape (1400, 1400, 1) but got array with shape (1400, 1400, 3)
为什么我的最后一个卷积期望有一个 (1400, 1400, 1)
张量,却得到一个 (1400, 1400, 3)
张量,而摘要说 UpSampling2D
应该返回一个 (1400, 1400, 2)
张量?
澄清一下上下文:这应该是一个采用 350x350x3 图像并输出 1400x1400x3 图像的网络。
最佳答案
很明显,错误消息与 conv2d_35
实体并不特别相关,而是与我的损失函数链接的网络的最后一个实体。
由于我选择了 sparse_categorical_crossentropy
作为损失函数,因此它期望一个单一维度向量。
将损失设置为 mean_squared_error
修复了该问题。
关于python-3.x - Keras UpSampling2D 不一致的行为,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/52452947/
我有兴趣在 tf.keras 中训练一个模型,然后用 keras 加载它。我知道这不是高度建议,但我对使用 tf.keras 来训练模型很感兴趣,因为 tf.keras 更容易构建输入管道 我想利用
我进行了大量搜索,但仍然无法弄清楚如何编写具有多个交互输出的自定义损失函数。 我有一个神经网络定义为: def NeuralNetwork(): inLayer = Input((2,));
我正在阅读一篇名为 Differential Learning Rates 的文章在 Medium 上,想知道这是否可以应用于 Keras。我能够找到在 pytorch 中实现的这项技术。这可以在 K
我正在实现一个神经网络分类器,以打印我正在使用的这个神经网络的损失和准确性: score = model.evaluate(x_test, y_test, verbose=False) model.m
我最近在查看模型摘要时遇到了这个问题。 我想知道,[(None, 16)] 和有什么区别?和 (None, 16) ?为什么输入层有这样的输入形状? 来源:model.summary() can't
我正在尝试使用 Keras 创建自定义损失函数。我想根据输入计算损失函数并预测神经网络的输出。 我尝试在 Keras 中使用 customloss 函数。我认为 y_true 是我们为训练提供的输出,
我有一组样本,每个样本都是一组属性的序列(例如,一个样本可以包含 10 个序列,每个序列具有 5 个属性)。属性的数量总是固定的,但序列的数量(时间戳)可能因样本而异。我想使用这个样本集在 Keras
Keras 在训练集和测试集文件夹中发现了错误数量的类。我有 3 节课,但它一直说有 4 节课。有人可以帮我吗? 这里的代码: cnn = Sequential() cnn.add(Conv2D(32
我想编写一个自定义层,在其中我可以在两次运行之间将变量保存在内存中。例如, class MyLayer(Layer): def __init__(self, out_dim = 51, **kwarg
我添加了一个回调来降低学习速度: keras.callbacks.ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=100,
在 https://keras.io/layers/recurrent/我看到 LSTM 层有一个 kernel和一个 recurrent_kernel .它们的含义是什么?根据我的理解,我们需要 L
问题与标题相同。 我不想打开 Python,而是使用 MacOS 或 Ubuntu。 最佳答案 Python 库作者将版本号放入 .__version__ 。您可以通过在命令行上运行以下命令来打印它:
Keras 文档并不清楚这实际上是什么。我知道我们可以用它来将输入特征空间压缩成更小的空间。但从神经设计的角度来看,这是如何完成的呢?它是一个自动编码器,RBM吗? 最佳答案 据我所知,嵌入层是一个简
我想实现[http://ydwen.github.io/papers/WenECCV16.pdf]中解释的中心损失]在喀拉斯 我开始创建一个具有 2 个输出的网络,例如: inputs = Input
我正在尝试实现多对一模型,其中输入是大小为 的词向量d .我需要输出一个大小为 的向量d 在 LSTM 结束时。 在此 question ,提到使用(对于多对一模型) model = Sequenti
我有不平衡的训练数据集,这就是我构建自定义加权分类交叉熵损失函数的原因。但问题是我的验证集是平衡的,我想使用常规的分类交叉熵损失。那么我可以在 Keras 中为验证集传递不同的损失函数吗?我的意思是用
DL 中的一项常见任务是将输入样本归一化为零均值和单位方差。可以使用如下代码“手动”执行规范化: mean = np.mean(X, axis = 0) std = np.std(X, axis =
我正在尝试学习 Keras 并使用 LSTM 解决分类问题。我希望能够绘制 准确率和损失,并在训练期间更新图。为此,我正在使用 callback function . 由于某种原因,我在回调中收到的准
在 Keras 内置函数中嵌入使用哪种算法?Word2vec?手套?其他? https://keras.io/layers/embeddings/ 最佳答案 简短的回答是都不是。本质上,GloVe 的
我有一个使用 Keras 完全实现的 LSTM RNN,我想使用梯度剪裁,梯度范数限制为 5(我正在尝试复制一篇研究论文)。在实现神经网络方面,我是一个初学者,我将如何实现? 是否只是(我正在使用 r
我是一名优秀的程序员,十分优秀!