- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我遇到了以下语句:
convnet = input_data(shape=[None,img_size,img_size,1], name='input')
我试图寻找描述,但找不到明确的解释。
我的主要问题是 input_data
函数主要做什么?它就像是我们输入数据的占位符吗?
关于形状,开头是None
,结尾是1
是什么?
谢谢。
最佳答案
input_data
是一个层,将用作网络的输入层。在顺序模型中添加任何常用层之前,您需要指定输入的外观。例如,在 mnist 数据集中,您有 784 数组代表 28x28 图像。
在您的示例中,网络需要形状为 (None, img_size,img_size,1] 的输入,用人类语言表示:
无 -
的许多或多个或多少图像img_size X img_size - 图片的尺寸
1 - 具有一个颜色 channel
如果 mnist 数据集为全 RGB 颜色,则输入数据的形状为(None, 28, 28, 3)通常,您可以将 None 视为 batch_size。
更明确地说,如果您的 batch_size 为 1,那么在我们的 mnist RGB 示例中,您需要三个 28x28 矩阵作为输入,一个代表 R 像素,另一个代表 G像素,最后一个用于图像的 B 像素。这只是一个条目。在这种情况下,None 值将是 1,但通常它是您决定的 batch_size 是什么。您可以从此处获取图片。
希望它能解决问题。
干杯,
加布里埃尔
关于python - TFLearn - 什么是输入数据,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48482746/
我正在使用自己的数据集,我想使用 tflearn 建立深度神经网络。 这是我的代码的一部分。 import tflearn from tflearn.data_utils import load_cs
有两个 TFLearn 项目 TF Learn (aka Scikit Flow) https://github.com/tensorflow/tensorflow/tree/master/tenso
我正在使用 TFLearn Alexnet使用我自己的数据集进行采样。 接下来我想对测试数据进行分类并确定模型的准确性。 TFLearn API 提供方法 model.predict()和 model
我正在尝试使用神经网络对 f(x) = x^2 图进行建模,我正在 tflearn 中进行制作。但即使使用多个图层,当我从模型中绘制一些点时,它总是会绘制一条直线。 import numpy as n
在获得了这么多事情的帮助后,我最后一次来这里解决我的最后一个问题,但我找不到解决方案。 继我之前的 question一位用户指出,我的时间序列预测结果不佳可能是因为我的架构不收敛。 查看它并尝试了我在
我正在使用 tflearn 和 gym 编写机器学习脚本。 我能够让一个网络在我的 python 脚本中工作,但每当我尝试调用我的函数来构建第二个或第三个网络并使用 model.fit,我得到一个 t
我正在尝试使用 TensorFlow 和 TFLearn 创建一个 AI 来预测 FRC 比赛的结果。 这是相关内容 x = np.load("FRCPrediction/matchData.npz"
我已经在我的Windows机器上安装了tensorflow和docker。我正在使用 powershell 打开 tensorflow docker run -it -p 8888:8888 tens
我正在玩带有 pokemon kaggle 数据集的 tflearn。我试图将宠物小 Sprite 的名称作为 word2vec,其余作为普通矩阵。我正在尝试预处理数据。 我所做的是使用 TF lea
我的网络为每个预测生成相同的输出。我在 pandas 数据框中有大约 49,000 个数据样本。 我怎样才能解决这个问题? # Input data X.as_matrix() => 8 dimens
我遇到了以下语句: convnet = input_data(shape=[None,img_size,img_size,1], name='input') 我试图寻找描述,但找不到明确的解释。 我的
我是 TFLearn 新手,我正在尝试一个简单的神经网络来预测给定输入数组时的输出数组值。 此代码的实际输入可以是灰度图像的像素值或从灰度图像中提取的特征。因此输入是二维数组格式。输出将是每个像素的预
使用 TFlearn 构建 DNN 后,我想计算网络的准确性。 这是代码: def create_model(self): x = tf.placeholder(dtype= tf.float
我是机器学习和 TensorFlow 的新手。我正在尝试训练一个简单的模型来识别性别。我使用高度、体重和鞋码的小数据集。然而,我在评估模型的准确性时遇到了问题。完整代码如下: import tflea
定义我的神经网络并训练我的模型后: net = tflearn.input_data(shape=[None, 1, 1]) tnorm = tflearn.initializations.unifo
我是机器学习新手,正在尝试TFlearn,因为它很简单。 我正在尝试制作一个我觉得有趣的基本分类器。我的目标是训练系统预测一个点所在的方向。 例如,如果我输入两个 2D 坐标 (50,50) 和 (5
我在 tflearn 中有一个 lstm 网络,它在给定前面单词的上下文的情况下预测序列中的下一个单词。单词作为一定大小的词汇表的索引被输入网络,并以二元类的形式输出,例如: 上下文:[45, 243
我正在尝试学习 tflearn。但我有一些疑问。 在下一行 net = tflearn.input_data(shape=[None, len(train_x[0])]) len(train_x[0]
我不知道你是否可以在这里帮助我,但我遇到了一个我无法解决的问题。我有大约 450,000 个条目的大型(对我而言)数据集。每个条目都是大约 700 个整数的列表,格式如下: [217088.0, 21
我正在尝试调整 Convolutional Neural Net example of tflearn使用约 12000 个不同的类标签和超过 100 万个训练示例进行分类。就单热编码时的内存消耗而言
我是一名优秀的程序员,十分优秀!