- mongodb - 在 MongoDB mapreduce 中,如何展平值对象?
- javascript - 对象传播与 Object.assign
- html - 输入类型 ="submit"Vs 按钮标签它们可以互换吗?
- sql - 使用 MongoDB 而不是 MS SQL Server 的优缺点
我有一个表示为形状为 (num_features, num_examples)
的 NumPy 矩阵的数据集,我希望将其转换为 TensorFlow 类型 tf.Dataset
。
我正在努力理解这两种方法之间的区别:Dataset.from_tensors
和 Dataset.from_tensor_slices
。什么是正确的,为什么?
TensorFlow 文档 (link) 说这两种方法都接受张量的嵌套结构,尽管在使用 from_tensor_slices
时,张量在第 0 维中应该具有相同的大小。
最佳答案
from_tensors
组合输入并返回具有单个元素的数据集:
>>> t = tf.constant([[1, 2], [3, 4]])
>>> ds = tf.data.Dataset.from_tensors(t)
>>> [x for x in ds]
[<tf.Tensor: shape=(2, 2), dtype=int32, numpy=
array([[1, 2],
[3, 4]], dtype=int32)>]
from_tensor_slices
为输入张量的每一行创建一个包含单独元素的数据集:
>>> t = tf.constant([[1, 2], [3, 4]])
>>> ds = tf.data.Dataset.from_tensor_slices(t)
>>> [x for x in ds]
[<tf.Tensor: shape=(2,), dtype=int32, numpy=array([1, 2], dtype=int32)>,
<tf.Tensor: shape=(2,), dtype=int32, numpy=array([3, 4], dtype=int32)>]
关于python - Dataset.from_tensors 和 Dataset.from_tensor_slices 有什么区别?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49579684/
我在处理一些 tensorflow 代码 (v1.13.1) 时注意到了这个微妙之处: tf.enable_eager_execution() for n in Dataset.from_tensor
我在处理一些 tensorflow 代码 (v1.13.1) 时注意到了这个微妙之处: tf.enable_eager_execution() for n in Dataset.from_tensor
我一直在研究 mnist 估计器代码 ( https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/tutori
我有以下代码: data = np.load("data.npy") print(data) # Makes sure the array gets loaded in memory dataset
使用 Iris 数据集示例: train_ds_url = "http://download.tensorflow.org/data/iris_training.csv" 使用的进口: import
我正在尝试制作一个需要两个输入的多输入 Keras 模型。一个输入是图像,第二个输入是一维文本。我将图像的路径存储在数据框中,然后将图像附加到这样的列表中: from tqdm import tqdm
我是 tensorflow 的新手,所以我尝试了官方文档中出现的每一个命令。 如何正确打印结果 dataset ?这是我的例子: import tensorflow as tf import nump
我有一个表示为形状为 (num_features, num_examples) 的 NumPy 矩阵的数据集,我希望将其转换为 TensorFlow 类型 tf.Dataset。 我正在努力理解这两种
# Convert to Tensor imagepaths = tf.convert_to_tensor(imagepaths, dtype=tf.string) labels = tf.conve
我在一个 numpy 数组中有一些训练数据——它适合内存,但它大于 2GB。我正在使用 tf.keras 和数据集 API。给你一个简化的、独立的例子: import numpy as np impo
我正在尝试找出将 dataset api 与 estimator api 一起使用的推荐方法。我在网上看到的一切都是这个的一些变体: def train_input_fn(): dataset
我只是在关注“使用 scikit-learn 和 tensorflow 进行机器学习”一书中的代码示例。 import tensorflow as tf X = tf.range(10) datase
所以我想使用数据集 API 来批处理我的大型数据集 (~8GB),因为我在使用 GPU 时遇到大量空闲时间,因为我正在使用 feed_dict 将数据从 python 传递到 Tensorflow。
我是一名优秀的程序员,十分优秀!