- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
在 Keras 中,为什么是 input_shape
当作为参数传递给像 Dense
这样的层时,不包括批处理维度但在 input_shape
时包含批处理维度传递给 build
模型的方法?
import tensorflow as tf
from tensorflow.keras.layers import Dense
if __name__ == "__main__":
model1 = tf.keras.Sequential([Dense(1, input_shape=[10])])
model1.summary()
model2 = tf.keras.Sequential([Dense(1)])
model2.build(input_shape=[None, 10]) # why [None, 10] and not [10]?
model2.summary()
这是 API 设计的明智选择吗?如果是,为什么?
最佳答案
您可以通过几种不同的方式指定模型的输入形状。例如,通过向模型的第一层提供以下参数之一:
batch_input_shape
:第一个维度是批量大小的元组。 input_shape
: 不包括批大小的元组,例如,批大小假定为 None
或 batch_size
,如果指定。 input_dim
: 一个标量,表示输入的维度。 _batch_input_size
建立模型。
build
方法,我的猜测是这确实是一个有意识的选择——关于批量大小的信息可能对在某些(也许是未曾想到的)情况下构建模型有用。因此,包含批处理维度作为输入的框架
build
比没有的框架更通用和完整。尽管如此,我同意你将论点命名为
batch_input_shape
而不是
input_shape
将使一切更加一致。
build
自己的方法。这在需要时在内部发生。如今,甚至可以
ignore
input_shape
创建模型时的参数(尽管像
summary
这样的方法在模型构建之前将不起作用)。在这种情况下,Keras 能够从参数
x
推断输入形状。的
fit
.
关于python - 为什么当作为参数传递给 `input_shape` 层时, `Dense` 不包括批处理维度?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/64681232/
为什么 get_weights() 返回的权重值与实际权重不同?我认为初始化后这两种方法应该显示相同的权重。 import tensorflow as tf import os sess = tf.S
我正在尝试使用 Keras。 当我尝试以下代码时: from keras.layers import Dense 我收到以下错误: Traceback (most recent call last):
我正在构建一个模型,该模型使用循环层 (GRU) 将一个字符串转换为另一个字符串。我尝试过使用 Dense 层和 TimeDistributed(Dense) 层作为最后一层,但我不明白使用 retu
this question of mine 的答案让我期望 Eigen 中的产品(对于具有 1/4 非消失条目的矩阵)稠密矩阵 * 稠密 vector 应该跑赢稀疏矩阵*密集 vector 。 我不仅
我正在尝试为上下文强盗问题 (https://medium.com/emergent-future/simple-reinforcement-learning-with-tensorflow-part
from keras import layers from keras import models model = models.Sequential() model.add(layers.Conv2
我目前正在学习深度学习和Keras。当我执行此代码时,我收到奇怪的错误:“TypeError:无法使用非浮点dtype构建Dense层”,我无法找出问题所在。我想念什么?如何解决这个奇怪的错误? 错误
我正在处理 pandas 数据框并且有一个像这样的框架: Year Value 2012 10 2013 20 2013 25 2014 30 我想做一个等同于 DENSE_RANK ()
我在 Tensorflow 中有一个网络,我想定义一个函数,通过 tf.layers.dense 层(显然是同一层)传递它的输入。我看到了 reuse 参数,但为了正确使用它,我似乎需要保留一个全局变
在转换自定义 tensorflow 图时,我看到与将密集层从 pb 格式转换为 DLC 格式有关的错误: 2017-11-02 13:43:35,260 - 305 - WARNING - WARNI
我需要在稀疏矩阵上使用线性回归。我的结果一直很差,所以我决定在一个稀疏表示的非稀疏矩阵上测试它。数据取自https://www.analyticsvidhya.com/blog/2021/05/mul
这个问题已经有答案了: How to pivot Spark DataFrame? (10 个回答) 已关闭 6 年前。 我有一个数据框,如下所示: item_id week_id sale am
我正在尝试为序数回归创建一个模型,正如这个 paper 所解释的那样.它的主要部分是在最后一层共享权重,而不是为了获得秩单调性的偏差(基本上确保 P[Y>N] 必须始终大于 P[Y>N-1] 对于任何
我有一个简单的序列模型,使用 TimeDistributed(Dense...) 作为 LSTM 层之后的最后一层。我正在以 20 个时间步长的顺序训练时间序列数据。损失函数是Mean Absolut
我有点误解如何为我的数据创建一个简单的序列。 数据具有以下维度: X_train.shape (2369, 12) y_train.shape (2369,) X_test.shape (592, 1
这个问题在这里已经有了答案: CSS-only masonry layout (4 个答案) 关闭 4 年前。 您可以这样想,因为我们在 Facebook 上上传了多张图片(可能尺寸不同),它们在新
我正在制作一个解决回归问题的 DNN。 首先我加载了一个预训练的 VGG16 网络,然后我制作了几个完全连接的隐藏层。最后一层有一个输出标量的节点。 我认为输出的形状应该类似于 [batch_size
在 tensorflow layers.dense(inputs, units, activation) 中实现了一个具有任意激活函数的多层感知器层。 输出=激活(matmul(输入,权重)+偏差)
如果我只使用这样的单层: layer = tf.layers.dense(tf_x, 1, tf.nn.relu) 这只是具有单个节点的单层吗? 或者它实际上是一组只有一个节点的层(输入层、隐藏层、输
池化层定义在tensorflow/python/layers/pooling.py. 有最大值池化和均值池化。 1、tf.layers.max_pooling2d
我是一名优秀的程序员,十分优秀!